Optymalizacja (SEO) dla wyszukiwarek internetowych nazwyana również pozycjonowaniem to procesy mające na celu uzyskanie przez dany serwis internetowy j ak najwyższej pozycji w wynikach wyszukiwarek internetowych dla wybranych słów i fraz kluczowych. Pozycjonowanie jest elementem szeroko pojętego marketingu internetowego. Opiera się ono na bezustannym poznawaniu mechanizmów rządzących wyszukiwarkami i dostosowywaniu kodu serwisów internetowych do aktualnych algorytmów wyszukiwarek aby uzzyskać  lepszą pozycję serwisu na liście.

Rozróżnienia się pozycjonowanie (ang. off-page) i optymalizację stron (ang. on-page). Często jednak wyrażenia te są używane zamiennie. Pierwszy z terminów to działania prowadzone poza docelową witryną (np. Link building). Drugi termin to optymalizacja. Polega ona na działaniach prowadzonych bezpośrednio na stronie internetowej (modyfikacja konstrukcji, treść oraz struktury).

Bardzo istotne są tutaj media społecznościowe takie jak Google+, Facebook, Twitter, które są zintegrowane zazwyczaj z daną stroną internetową.

Optymalizacja

Rozróżniany jest tu podział na działania związane z modyfikacją treści witryniy (pod kątem fraz, na które zamierza się prowadzić kampanię) oraz zmianami w kodzie strony, nie zmieniających wyglądu serwisu.

Treść

Optymalizacja treści to dopasowanie treści w tagu tytułowym, słowach kluczowych w istniejących tekstach lub tworzenie nowych (SEO copywriting), ustawienie właściwych nagłówków, zaaranżowanie treści menu i innych elementów, wchodzących w skład linkowania wewnętrznego serwisu, ustawienie tekstu alternatywnego dla elementów graficznych oraz innych obiektów (np. Flash).

Dawniej działania te ograniczały się do zmiany treści tagów meta Keywords i Description, których obecność na stronie dla większości współczesnych wyszukiwarek ma znaczenie marginalne.

 

Kod i struktura

Działania w dużej mierze niewidoczne dla przeciętnego użytkownika strony, mające jednak wpływ na jej indeksowanie i klasyfikacje w wyszukiwarkach to np.: dostosowanie strony do standardów W3C, oddzielenia warstwy logicznej struktury dokumentu od warstwy jego prezentacji (np. poprzez zastosowanie CSS), poprawa czasu ładowania strony, rozwiązanie problemu powielonej treści, np. poprzez wskazanie wersji preferowanej za pomocą konwertowania kanonicznego z poziomu kodu HTML lub nagłówku HTTP dokumentu; w przypadku zawartości błędnie powielonej wykonując przekierowanie 301, czyli przekierowanie na stałe pod inny URL, zastosowanie przyjaznych adresów, np. przy użyciu mod_rewrite, umożliwienie głębokiego linkowania w przypadku animacji Flash oraz zapewnienie alternatywnej wersji dla przeglądarek bez wsparcia dla wspomnianej technologii (w tym robotów wyszukiwarek internetowych) instalacja kodów Google Analitycs oraz Search Console. Search engine friendly Struktura serwisu seo friendly Przykładowa struktura strony przyjazna SEO i nadająca się pod pozycjonowanie. SEF to pojęcie odnoszące się do jasnego i czytelnego formułowania adresów stron internetowych. SEF ma na celu eliminację niezrozumiałego kodu z odnośników stron przy jednoczesnym przekazaniu wartościowych informacji (np. słowa kluczowe) oraz ułatwienia odwiedzającemu poruszanie się po stronie i odszukanie interesujących wiadomości. SEF ma również pozytywne przełożenie na tzw. optymalizację stron pod kątem wyszukiwarek.

 

Historia

Pozycjonowanie stron rozpoczęło się wraz z rozwojem pierwszych wyszukiwarek internetowych. Webmasterzy dążyli do tego, aby ich strona pojawiła się jako pierwsza w wynikach wyszukiwania dla danego zapytania. Początkowo nie było to trudne, gdyż wyniki w wyszukiwarkach opierały się na analizie słów kluczowych podanych przez autora w nagłówku strony. Później jednak, między innymi ze względu na łatwą manipulację słowami kluczowymi, wyszukiwarki zaczęły je ignorować, odwołując się bezpośrednio do treści strony. Ewolucja wyszukiwarek wywołała ewolucję pozycjonowania przechodzącego przez wszelkie algorytmy binarne i wektorową analizę treści strony. Dopiero wyszukiwarki oparte na analizie topologii sieci, zliczające linki (takie jak Google), podniosły poziom trudności pozycjonowania stron. Zaawansowane algorytmy analizy topologii sieci wielu osobom wydawały się odporne na wszelkiego rodzaju próby manipulacji/modyfikacji SERP, jednak zjawisko Google bomb, polegające na masowym dodawaniu na stronach linku ze wskazanym przez pomysłodawcę anchor tekstem, pokazało drogę do łatwego modyfikowania indeksu. Termin „pozycjonowanie” pojawił się ok. 2002 r, wcześniej funkcjonował anglojęzyczny „web positioning”. Pierwsze powszechnie znane „polskie” Google bomb pojawiło się na przełomie 2003 i 2004 roku i polegało na linkowaniu ze słowem kluczowym kretyn adresu do sejmowej strony internetowej polskiego posła Andrzeja Leppera>, co w efekcie dało pojawianie się wspomnianej strony na czołowych miejscach w wynikach wyszukiwania w Google dla hasła „kretyn” (zwykle jako pierwszy wynik). Akcja ta zyskała wielu naśladowców i podobne zjawiska można było zaobserwować dla innych słów i wyrażeń. Pod koniec 2009 roku Google wprowadziło wyszukiwanie w czasie rzeczywistym (Real Time Search), polegające na przedstawianiu najaktualniejszych wyników z serwisów społecznościowych oraz mikro-blogów. 19 marca 2010 roku funkcja wyszukiwania w czasie rzeczywistym została oficjalnie wdrożona do polskiej wersji wyszukiwarki Google. Algorytm wyszukiwarki odpowiedzialny za prezentowanie wyników na odpowiednich pozycjach analizuje kilkaset najważniejszych czynników strony i ciągle ulega modyfikacjom.

 

Kontrowersje

Kontrowersje w pozycjonowaniu stron wynikają ze sposobów zdobywania linków prowadzących do stron – IBL oraz z nieetycznych technik stosowanych w pozycjonowaniu. Działania niezgodne z zaleceniami dla webmasterów przyjęło się nazywać spamem w wyszukiwarkach. Spam w wyszukiwarkach jest traktowany podobnie jak spam pocztowy, czyli elektroniczne wiadomości masowo rozsyłane do osób, które ich nie oczekują. W wyszukiwarkach stworzono specjalne strony, na których można zgłaszać strony, które stosują nieetyczne metody pozycjonowania, np. Google – Raport dotyczący spamu.