AAA

Web positioning

Artur Banach

Web positioning, czyli pozycjonowanie serwisu WWW w sieci, to zapewnienie stałego dostępu do strony przez mechanizmy wyszukiwawcze i maksymalizacja szans na jej odnalezienie. Przeważnie utożsamiane jest to z pozycjonowaniem w wyszukiwarkach, jednak pojęcie to obejmuje także pozycjonowanie w katalogach stron WWW portali i serwisów tematycznych. Za formę web positioningu można również uznać umieszczanie linków do serwisu w sieci. Dobrze pozycjonowana witryna firmowa powinna być zarejestrowana w najważniejszych dla swego rynku docelowego wyszukiwarkach i katalogach oraz znajdować się w czołówce wyników wyszukiwania dla wyrażeń kluczowych związanych z jej tematyką1.

Opracowanie składa się z trzech części, w których przedstawione zostały korzyści web positioningu, błędy w budowie stron internetowych mające wpływ na miejsce w wynikach wyszukiwania oraz prowadzone badania, mające na celu udoskonalenie działania wyszukiwarek internetowych.

Charakterystyka web positioningu

Według Forrester Research ponad 80% użytkowników sieci wykorzystuje wyszukiwarki internetowe w celu dotarcia do informacji dotyczących produktów i usług. Przeciętny internauta częściej klika w odnośniki do stron znajdujące się w wynikach wyszukiwania niż w banery reklamowe bądź linki zamieszczone w serwisach internetowych. Wysoka pozycja w wyniku wyszukiwania jest najskuteczniejszą, choć ciągle niedocenianą, formą internetowej promocji. Okazuje się także, że 45% internautów szuka informacji za pomocą więcej niż jednego słowa kluczowego, 28% wpisuje jedno słowo kluczowe, 18% szuka za pomocą predefiniowanych opcji (np. wyszukiwanie za pomocą kategorii w katalogach), a 9% wpisuje do wyszukiwarki pytanie. Wynik tego badania pokazuje, że kilkuwyrazowe frazy są bardziej istotne niż pojedyncze słowa kluczowe. Stosując frazy uzyskuje się również lepszą skuteczność wyszukiwania. Każde kolejne słowo wpisywane w polu zapytania zawęża kryterium wyszukiwania2.

Dla trzech czwartych internautów wyszukiwarka jest najlepszym sposobem dotarcia do nowych serwisów. Biorąc pod uwagę tempo, w jakim rozwija się internet, należy założyć, że rola serwisów wyszukiwawczych będzie nadal rosła. Badani potwierdzają również wiodącą rolę wyszukiwarek w generowaniu transakcji w sieci. Dziś użytkownicy internetu poszukując produktów lub usług wpisują po prostu nazwę w okno wyszukiwania zamiast kierować się bezpośrednio do sklepu lub pasażu. Według badań NPD Group, 55% transakcji w sieci ma swój początek właśnie w wyszukiwarkach3.

Internauci rzadko klikają w odnośnik znajdujący się dalej niż na pierwszej stronie wyszukiwania. W zależności od stosowanej wyszukiwarki może to być przedział od 10 do 30 pierwszych odszukanych odnośników. Badania ujawniają, że pierwsze 30 odnośników w wynikach wyszukiwania generuje około 90% ruchu pomiędzy wyszukiwarką a innymi stronami w sieci internet. Niewątpliwie wysokie pozycjonowanie w wyszukiwarkach zwiększa ruch na stronach internetowych. W przypadku witryn oferujących usługi bądź produkty w sieci ruch ten jest proporcjonalny do osiąganego obrotu. Zajmowanie wysokiej pozycji w wynikach wyszukiwania jest realnym zyskiem, który jest w zasięgu ręki tych firm, które aktywnie dbają o wysokie pozycjonowanie w wyszukiwarkach internetowych4.

Najbardziej na web positioningu witryn zyskują firmy z branży e-commerce, specjalizujące się w sprzedaży towarów i usług albo czerpiące zyski na przykład z sieciowej reklamy. Web positioning może być jednak także potężnym orężem w marketingu firm z tradycyjnych gałęzi gospodarki.

Miejsce witryny w wyszukiwarkach zależy od jej wewnętrznej budowy. Wyszukiwarki internetowe to po prostu specjalistyczne oprogramowanie, które analizuje kod HTML poszczególnych stron. W określonych odstępach automatycznie odwiedza ono wszystkie znane sobie strony WWW i przyporządkowuje do nich różne słowa kluczowe. Jednocześnie dzięki linkom na witrynach odkrywa się nowe strony.

Twórcy internetowych wyszukiwarek chcieli przygotować oprogramowanie, które znajdowałoby strony odpowiadające na pytania internautów, a następnie segregowałoby wyniki wyszukiwania w taki sposób, aby strony najbardziej dopasowane do pytania znajdowały się na górze listy wyników. Celem web positioningu jest natomiast takie przygotowanie witryny, by wyszukiwarki uznały, że właśnie ta strona najlepiej opisuje problem. Ponieważ każda wyszukiwarka jest innym programem, to również w inny sposób klasyfikuje znalezione przez siebie strony. Dlatego ta sama witryna może być w poszczególnych wyszukiwarkach umieszczona na różnych pozycjach5.

Web positioning najlepiej zrealizować dla tych wyszukiwarek, które są najpopularniejsze wśród grupy internautów odwiedzających witrynę. W przypadku braku dokładnych danych na temat ich stosowania przez grupę naszych potencjalnych klientów, można przyjąć, że zachowują się oni tak samo, jak cała populacja polskich internautów. Pomimo że algorytmy stosowane przez różne wyszukiwarki różnią się między sobą, to jednak bazują one na tych samych lub podobnych zmiennych i kryteriach.

Tabela 1. Udział odsłon wyszukiwarek wśród polskich internautów

Udział odsłon wyszukiwarek wśród polskich internautów
Google.com 83,4%
Onet.pl 5,6%
Wp.pl (Netsprint) 3,8%
Inne 7,2%

Źródło: www.ranking.pl - dane ze stycznia 2006

Analizując dane uzyskane z serwisu Gemius, łatwo zauważyć, że popularność wyszukiwarek zgodna jest z zasadą Pareto, a web positioning w trzech najpopularniejszych gwarantuje nam objęcie ponad 90% zapytań zadawanych przez polskich internautów. O web positioningu witryny powinno się myśleć już na etapie jej projektowania. Kwestią podstawową jest wybór słów kluczowych i wyszukiwarek, dla których chce się witrynę pozycjonować.

W światowym internecie niezliczone są zasoby stron i dokumentów, sama wyszukiwarka Google zindeksowała już ponad 3300 milionów stron internetowych. Obecność linku na pierwszej stronie w wynikach wyszukiwania nie jest przypadkowa. W celu wyróżnienia się z ponad trzech miliardów zindeksowanych stron, należy nieustannie dbać o odpowiednie pozycjonowanie serwisu WWW, co jest procesem ciągłym. Dla lepszego zrozumienia, jak trudno jest zdobyć i utrzymać wysoką pozycję, należy uzmysłowić sobie, że tysiące podobnych stron walczy o jak najlepsze miejsce (czasami wystarczy ich 30, aby przesunąć nas na drugą stronę w wyniku wyszukiwania), robi to samo, co my i nie poprzestaje na działaniach jednorazowych. Najlepiej podpisać umowę na web positioning ze sprawdzoną i doświadczoną agencją, która co najmniej przez okres jednego roku będzie monitorować i dbać o wysokie pozycjonowanie witryny6.

Bardzo istotne są słowa kluczowe, czyli wyrazy lub frazy, których wpisanie w okno wyszukiwarki spowoduje odnalezienie danej witryny. Aby web positioning był skuteczny, powinny to być słowa, które najlepiej opisują działalność firmy, a zarazem są często poszukiwane przez internautów. Łatwo jest bowiem przygotować witrynę tak, by wyświetlała się na pierwszym miejscu dla jakiegoś mało popularnego słowa. Nie spowoduje to jednak wzrostu jej oglądalności. Nazwa firmy sprawdza się jako słowo kluczowe tylko w przypadku znanych marek.

Użytkownicy internetu poszukują informacji na dwa sposoby: za pomocą określeń ogólnych (muzyka, sms, książki) albo konkretnych zapytań (restauracja w Gdańsku). Wybór słów kluczowych uzależnić więc trzeba od specyfiki działalności - na przykład ustawienie przez hotelarza jako słowa kluczowego wyrazu "hotel" mija się z celem. Poszukujący noclegów podają bowiem "hotel" wraz z miejscem. Witrynę taką należy więc pozycjonować dla wyrażenia "hotel w Krakowie". Określenia ogólne powinni natomiast stosować właściciele horyzontalnych wortali i wielotematycznych serwisów. "Muzyka" lepiej sprawdzi się w przypadku witryny zajmującej się ocenianiem nowych płyt CD niż w odniesieniu do organizatora koncertów. Należy również unikać słów wieloznacznych - np. "zamków" poszukują miłośnicy historii i właściciele sklepów pasmanteryjnych7.

Większość wyszukiwarek działa na podobnych zasadach ogólnych, jednak nie zdarza się nigdy, aby efekty wyszukiwania, przy korzystaniu z różnych mechanizmów były jednakowe. Każda wyszukiwarka posiada własną metodę (algorytm) indeksowania i wartościowania stron oraz prezentacji wyników. Przedmiotem web positioningu jest więc optymalne dostosowanie serwisu WWW do kryteriów, według których wyszukiwarki oceniają strony i nadają im pozycję w wynikach. W różnym stopniu zwracają one uwagę na następujące czynniki:

  • tytuł strony - znacznik title,
  • opis strony - znacznik meta description,
  • słowa kluczowe - znacznik meta keywords,
  • częstotliwość występowania wyszukiwanych słów w treści strony,
  • ilość linków do danej strony w sieci (odzwierciedlająca popularność danej strony),
  • odpowiednia konstrukcja witryny (przyjazna dla wyszukiwarek),
  • obecność strony w katalogu na tym samym serwisie.

Czynniki te są często zmieniane przez każdą z wyszukiwarek, co powoduje, że web positioningu nie powinno się ograniczać do jednorazowych działań, gdyż wymaga on ciągłego monitoringu i ewentualnych zmian dostosowawczych8.

Bardzo popularną odmianą web positioningu stają się płatne linki i boksy sponsorowane. W przeciwieństwie do pozycjonowania w wynikach zwykłych, płatna obecność daje gwarancję, że link do serwisu znajdzie się w atrakcyjnym obszarze strony. Ponadto płatne linki widoczne są w wynikach wyszukiwania niemal natychmiastowo. Koszt reklamy w wyszukiwarce jest relatywnie niski, a skuteczność bardzo wysoka.

Co więcej, pozwala ona na dość dokładne obliczenie przychodu z inwestycji (ROI). Częste są przypadki gdy ROI wynosi 500%, co oznacza, że 1000 zł wydane na reklamę pozwala zarobić kolejne 5000 zł. Dotyczy to zarówno małych firm niszowych (którym w inny sposób trudno trafić do klienta), jak i wielkich, międzynarodowych koncernów.

Linki sponsorowane mogą z powodzeniem zastępować obecność odnośnika w zwykłych wynikach wyszukiwarki, dzięki bardzo zbliżonej formie wizualnej. Szczególnie przydatne są dla nowych serwisów, których treść nie została jeszcze zindeksowana przez roboty oraz dla serwisów o często zmieniającej się zawartości. Warto je także polecić wtedy, gdy dla istotnych dla serwisu słów kluczowych w wynikach zwykłych, występuje bardzo silna konkurencja9.

Budowa stron WWW a web positioning

Zdobycie przez witrynę wysokiego miejsca w wynikach wyszukiwania wymaga przestrzegania kilku reguł. Niestety, twórcy serwisów zadziwiająco rzadko o nich pamiętają. Poniżej przedstawiona została lista najczęściej popełnianych błędów.

Błąd pierwszy: zalew słów kluczowych

Problem polega na próbie optymalizacji witryny pod kątem wszystkich potencjalnych haseł, które mogłyby zainteresować internautów. Często przeglądając strony, można zobaczyć tag <title> opatrzony kilkunastoma wyrazami. To klasyczny przykład tego, jak niewiedza może prowadzić w odwrotnym kierunku niż założony. Żaden z kilkunastowyrazowych opisów nigdy nie zajmie wysokiego miejsca w rankingu, zwłaszcza gdy jest to zwrot popularny czy slogan reklamowy. W praktyce "mniej" znaczy "więcej" - przynajmniej jeśli chodzi o optymalizację wyszukiwania.

Rozwiązaniem takiego problemu jest skupienie się na dwóch, trzech słowach, które pojawiają się na stronie tytułowej. Czasem wystarczą krótkie, celne frazy. Dużym błędem jest skupianie się na niewłaściwych słowach i dążenie do wysokiej wybieralności bez względu na wartość tych odwiedzin. Każda próba oszukania internautów zniechęca ich do zawartości prezentowanej w serwisie, ponieważ nie znajdują w niej tego, czego się spodziewali. Nowicjusza w tej dziedzinie można poznać po tym, że stara się zoptymalizować pojedynczą stronę pod kątem wszystkich możliwych słów z danej dziedziny. Zwykle jeszcze, zamiast próbować rozmieścić je po całym serwisie, skupia się na stronie tytułowej. Tymczasem trzeba pamiętać, że każda strona może być tą, przez którą klient trafi do naszego serwisu. Szczególnie powinni o tym pamiętać właściciele sklepów internetowych lub witryn informacyjnych. Dwa, trzy słowa kluczowe powinny naprawdę wystarczyć, choć działając na rynku niszowym można sobie pozwolić na niewielkie odstępstwo od tej reguły. W praktyce title Tag strony nie powinien zawierać więcej niż siedem słów.

Błąd drugi: za dużo słów w nagłówku

Każda strona powinna być zoptymalizowana pod kątem innych słów kluczowych. Z punktu widzenia optymalizacji wyszukiwania niewpisanie w nagłówku strony hasła bądź haseł najlepiej opisujących jej zawartość to "marnotrawstwo" szans na odwiedziny witryny. Tworząc stronę, najpierw należy skupić się na jej zawartości. Trzeba jednak upewnić się, że pod kątem wyszukiwania jest zoptymalizowana nie tylko treść, ale także tagi i metaopisy. Nigdy nie należy powtarzać tytułów ani metaopisów. Powinno to w miarę możliwości dotyczyć wszystkich stron, choć wiadomo że optymalizacja serwisu liczącego już choćby kilkaset stron jest bardzo pracochłonna. W tym przypadku warto przygotować szablon, który automatycznie wykona optymalizację pod kątem wyszukiwania.

Błąd trzeci: ramki

Posłużenie się ramkami w konstrukcji strony to dość często nieunikniona konieczność. Niestety, ramki są traktowane przez wyszukiwarkę jako odrębny element i wyszukiwarki indeksują je inaczej niż pozostałą zawartość strony. Niewielu webmasterów wie, jak dobrze zoptymalizować stronę z ramkami, a jeśli nie umie tego zrobić poprawnie, stronę równie dobrze można zatytułować: strona nie obsługuje ramek. Skutek będzie podobny, czyli praktycznie zerowy.

Aby rozwiązać problem, stronę zawierającą nonframe Tag można potraktować tak, jak tekstową wersję strony głównej i optymalizować w ten sposób, jakby to była jedna z podstron serwisu. Innym sposobem na rozwiązanie problemu jest opatrzenie słowami kluczowymi strony bez ramek i umieszczenie na nich łączy do stron z ramkami. Oczywiście są i inne, bardziej kompleksowe, i zapewne lepsze rozwiązania. Tworzone strony można np. przetestować przy użyciu specjalizowanego narzędzia, m.in. pakietu Netmechanics. Sprawdza on poprawność kodu HTML, kompatybilność z przeglądarkami, pisownię w języku angielskim, testuje odnośnik, a także czas ładowania strony.

Warto wiedzieć, że porównywalne efekty wizualne można osiągnąć rezygnując z ramek na rzecz formatowania stylów - Cascading Style Sweet. Pozwalają one z góry określić wygląd strony internetowej: rozmiar, kolor i typ czcionki, odstęp między wierszami i literami, wcięcia, marginesy, pozycję elementów i wiele innych właściwości strony. Jeśli jednak koniecznie chce się użyć ramek, trzeba się upewnić, że strony zostały zoptymalizowane pod kątem wyszukiwania.

Błąd czwarty: tylko Flash

Witryny, które plasują się na odległych pozycjach w wyszukiwarkach, zwykle wcale nie są ubogie graficznie czy niedopracowane. Kłopot często polega na tym, że tekst (kluczowy z punktu indeksowania przez wyszukiwarki) jest na nich umieszczany w formie graficznej. Animacje Flash niewątpliwie dodają stronom atrakcyjności, ich właściciele mogą jednak zapomnieć o wysokich miejscach w rankingach listy odwiedzin inicjowanych z wyszukiwarek. Przypadłość ta jest, niestety, powszechna i wynika po części z faktu, że większość klientów zlecających tworzenie serwisu WWW zwraca uwagę przede wszystkim na elementy graficzne. Najgorszym z możliwych rozwiązań jest stworzenie strony opartej całkowicie o technologię Flash, bez żadnej alternatywy w postaci HTML. Chcąc umieścić witrynę w miarę wysoko na liście wyników wyszukiwania, trzeba zostawić informacje robotom zajmującym się przeszukiwaniem treści witryn. Doskonałym wyjściem jest zabieg polegający na otoczeniu na stronie obiektów we Flashu tekstem. Można również stworzyć dwie wersje strony - jedną we Flashu, a drugą w wersji tekstowej.

Chcąc osiągnąć zamierzone efekty, w praktyce elementy tekstowe trzeba stosować obok elementów graficznych tak często, jak to tylko możliwe. Nie pomoże w tym względzie umieszczanie na stronie jedynie łączy do tekstu. Współczesne wyszukiwarki są na tyle zaawansowane, że strony niezawierające elementów tekstowych - pomimo wielu odnośników, nie trafią na wysokie pozycje w rankingach wyszukiwawczych. Odrobina wiedzy o formatowaniu za pomocą CSS sprawi, że strony będą zarówno atrakcyjne wizualnie, jak i często odwiedzane.

Błąd piąty: zaniedbania

Oczywistym błędem jest optymalizowanie stron pod kątem specjalistycznych i rzadkich terminów albo odwrotnie: terminów bardzo szeroko rozpowszechnionych. W pierwszym przypadku ryzykuje się, że nikt na stronę po prostu nie trafi. W drugim, że strona pogrąży się w "powodzi" setek, czy tysięcy innych stron. Wielu webmasterów nie testuje na wyszukiwarkach użytych na stronach słów kluczowych. Uznają, że wiedzą lepiej, do czego strona przez nich tworzona może się przydać internautom. Praktykowane najczęściej zgadywanie najlepszych słów kluczowych nie ma sensu, najlepiej sprawdzić ich trafność właśnie dzięki wyszukiwarkom. W dłuższym okresie tworzący serwis powinni prowadzić analizy zapytań, sprawdzać, dzięki jakim wyszukiwarkom trafiono na ich strony i odpowiednio dostosowywać słowa kluczowe10.

Wyszukiwarki w przyszłości

Wyszukiwarka internetowa to narzędzie codziennej pracy milionów ludzi. Pomimo ogromnych możliwości jest ona jeszcze daleka od rozumienia intencji jej użytkownika. Rezultaty przeszukiwania sieci po wpisaniu na przykład słowa "Linux" są wyświetlane błyskawicznie. Cóż jednak z tego, skoro lista składa się z blisko 100 milionów pozycji. Jeśli poszukiwana strona znajduje się gdzieś w jej połowie, mamy po prostu pecha. Naukowcy są zdeterminowani, by w ciągu najbliższych lat dokonać przełomu w obszarze technologii wyszukiwawczych. Wysiłki badaczy zmierzają najczęściej do wykorzystania mechanizmów personalizujących procesy wyszukiwania. Przykładowo, gdyby wyszukiwarka wiedziała, że osoba wpisująca słowo "mysz" jest informatykiem, wyświetlałaby jedynie strony poświęcone komputerom PC, a nie zwierzętom.

Jeden z projektów w zakresie nowych technologii wyszukiwania realizowany przez profesora Adele Howe z Uniwersytetu Colorado oraz studenta Gabriela Somlo nosi nazwę QueryTracker. Oprogramowanie to pośredniczy w interakcji pomiędzy użytkownikiem a konwencjonalną wyszukiwarką. QueryTracker przekazuje zapytania użytkownika do wyszukiwarki raz dziennie i zwraca wyniki z listą nowych stron oraz tych, na których zaszły zmiany od ostatniej wizyty. Najważniejszą jego zaletą jest automatyczne generowanie dodatkowych, codziennych zapytań na podstawie tego, czego aplikacja uczy się z czasem o preferencjach użytkownika. Rezultaty zapytań są filtrowane pod kątem ich zgodności z ustalonymi ograniczeniami, a wyniki przesyłane do użytkownika. Zdaniem naukowców, daje to często lepsze efekty niż oryginalne zapytanie.

Profesor matematyki Jeannette Jenssen z Uniwersytetu Dalhousie w Halifax pracuje nad wykorzystaniem technologii personalizacji w mechanizmach, które indeksują treść na stronach WWW. Jej zdaniem popularne wyszukiwarki mają obecnie trzy zasadnicze wady: zniekształcają wyniki na korzyść ogłoszeniodawców, pobierają opłaty od przedsiębiorstw za swoje usługi, a także często otrzymują ogromne ilości informacji nieistotnych.

Odpowiednio skonstruowane mechanizmy mogą indeksować jedynie strony związane z określonymi wcześniej tematami i następnie tworzyć ranking zgodnie z zainteresowaniami użytkownika. Przykładowo, stowarzyszenie medyczne może uruchomić system indeksujący, który będzie koncentrował się wyłącznie na stronach związanych z medycyną. Będzie on tworzył ranking rezultatów, zoptymalizowany pod kątem wykorzystania go przez pracowników służby zdrowia, a nie ogłoszeniodawców czy przeciętnych internautów. Z czasem oprogramowanie coraz skuteczniej indeksować będzie strony, obserwując zachowanie użytkowników.

Działające już obecnie wyspecjalizowane mechanizmy indeksujące, poszukują informacji spełniających specyficzne kryteria. Jednak projekt opracowany przez profesor Jenssen może rozpoznawać ukryte lub pośrednie odnośniki dzięki procesowi podobnemu do dziecięcej zabawy ciepło - zimno. Publikowane przez naukowców badania często zawierają odnośniki do stron internetowych domowych autorów, a z kolei na ich stronach znajdują się odnośniki do uniwersytetów, na których pracują. Kiedy mechanizm trafi na strony uniwersytetu, przeszukuje je bardziej dokładnie niż strony przedsiębiorstw. Mechanizm analizuje zachowania użytkowników oraz sposoby powiązań stron i automatycznie uczy się, jak przebiegają takie trajektorie.

Profesor Filippo Menczer z Uniwersytetu Indiana uważa, że konwencjonalne motory wyszukiwawcze określają, czy dokument odpowiada kryteriom wyszukiwania, badając różne aspekty w izolacji - bez właściwego kontekstu. Najpierw wybierają dokument, ponieważ zawiera słowo wymienione w zapytaniu. Następnie, by stworzyć ranking rezultatów, sprawdzają, ile odnośników prowadzi do dokumentu. Lepsze wyniki można uzyskać badając te same parametry łącznie - analizując grupy, a nie pojedyncze strony. Takie złożone wyszukiwanie będzie możliwe do przeprowadzenia w ciągu 3-5 lat, kiedy komputery będą dysponować odpowiednią mocą obliczeniową. Menczer uważa, że będzie możliwe prowadzenie już nie wyszukiwania, lecz "eksplorowania" terabajtów danych.

Przedsiębiorstwa także starają się ulepszyć działanie systemów wyszukiwawczych. IBM prowadzi projekt pod nazwą WebFountain. Ogromny klaster linuksowy, na którym jest uruchomionych jednocześnie 9 tysięcy programów, indeksuje 50 milionów nowych stron dziennie. Działanie WebFountain nie polega na prostym indeksowaniu słów kluczowych, lecz analizie tekstu, podobnie jak w analizie języka naturalnego. Przykładowo, określa on, czy dany obiekt jest nazwą osoby, nazwą firmy, lokalizacji, produktu, ceną itp. Następnie dołącza do nich znaczniki XML, które umożliwiają wyszukiwanie według kategorii. Oprogramowanie radzi sobie całkiem nieźle w wydobywaniu i oznaczaniu semantycznego znaczenia tekstu, niemniej jednak wymaga jeszcze dopracowania. Inżynierowie skupieni wokół projektu WebFountain eksperymentują z programem Sentiment Analyzer, który pozwala na wydobywanie opinii z dokumentów tekstowych. Jeśli na przykład klient na stronie WWW napisał Daewoo Tico jest fantastyczny, łatwo będzie to sklasyfikować. Jeśli jednak sarkastycznie dodał, że jest prawie tak dobry jak maluch, analiza semantyczna sobie nie poradzi. Omawiany przykład to tylko jeden z problemów do rozwiązania stojących przed inżynierami IBM11.

Podsumowanie

Promocja serwisu za pośrednictwem mechanizmów wyszukiwawczych w sieci wywodzi się ze Stanów Zjednoczonych i od kilku lat stale zwiększa swój udział w wydatkach na reklamę online. Powodem tego jest wysoka skuteczność i relatywnie niskie koszty pozycjonowania. Web positioning przy niewielkich nakładach pozwala na wielokrotne zwiększenie popularności serwisu klienta i daje niezwykłą przewagę konkurencyjną przedsiębiorstwu istniejącemu w sieci. Odpowiednie i ciągłe pozycjonowanie powoduje, że serwis jest lepiej "widoczny" i generuje precyzyjnie nakierowany ruch12.

! Wysoka pozycja w zwykłych wynikach zależy przede wszystkim od tego, czy serwis rzeczywiście oferuje treści adekwatne do zapytania. Im lepsze treści zaoferują inne serwisy o tej samej tematyce, tym mniejsze są szanse na dobrą pozycję. Zasoby internetowe rosną w bardzo szybkim tempie, więc dobrą praktyką jest okresowe monitorowanie pozycji serwisu. Jeśli konkurencja dla danych słów kluczowych jest silna, to warto rozważyć inwestycję w linki sponsorowane. Płatne linki mogą okazać się mniej kosztowne niż pozycjonowanie, ponadto korzyści z zajęcia dobrego miejsca zaobserwujemy znacznie szybciej. Dla zwiększenia zasięgu serwisu najlepiej użyć reklamy tekstowej. Wszędzie tam, gdzie serwis dostarcza treści odpowiadających oczekiwaniom internauty (choć niekoniecznie frazie wpisanej w pole wyszukiwarki) reklama tekstowa wygeneruje dodatkowy, cenny ruch. Marketing w wyszukiwarkach to dziś podstawa e-commerce13.

Bibliografia

  • G. Anthes, Poszukiwacze przyszłości, "Computerworld" 2004, nr 16 (620).
  • A. Banach, Jak wyszukiwarki stymulują e-handel, "Marketing w praktyce" 2002, nr 9 (55).
  • M. Gałecki, Pozycjonowanie witryn, "Marketing w praktyce" 2004, nr 4 (74).
  • T. Jastrzębowski, Witryna na widoku, "Press" 2003, nr 5 (88).
  • T. Karolak, Promocja przez wyszukiwarki, "Marketing w praktyce" 2003, nr 10 (68).
  • M. Pękalski, Pozycjonowanie stron WWW, "Marketing w praktyce" 2002, nr 3 (49).
  • A. Webb, A. Bielewicz, Walka o miejsce na liście, "Computerworld" 2003, nr 36 (592).
  • A. Zasada, M. Minakowski, Jak znaleźć klientów przez wyszukiwarkę internetową, "Brief" 2004, nr 59/8.

Netografia

W Polsce również podjęto próby stworzenia wyszukiwarek internetowych. Najpopularniejsze z nich działają we współpracy z portalami internetowymi - swoją własną wyszukiwarkę stworzył portal Onet.pl, natomiast Wirtualna Polska (Wp.pl) współpracuje z wyszukiwarką Netsprint.

Jeszcze w 2004 roku udziały ich odsłon wśród polskich internautów wynosiły po kilkanaście procent. Obecnie wynoszą zaledwie kilka procent, z tendencją do zmniejszania się. Wszystkie pozostałe polskie wyszukiwarki internetowe posiadają udział w rynku mniejszy niż 3%. Wynika to głównie z ekspansji wyszukiwarki Google.

INFORMACJE O AUTORZE

ARTUR BANACH
Autor jest doktorantem w Kolegium Zarządzania i Finansów Szkoły Głównej Handlowej w Warszawie. Jest absolwentem SGH - kierunek zarządzanie i marketing. Jego głównym obszarem zainteresowania jest public relations i komunikacja internetowa. Posiada doświadczenie zawodowe w działach: finansowym, personalnym oraz zarządzania nieruchomościami zdobyte w Stanach Zjednoczonych.

 

Przypisy

1 M. Pękalski, Pozycjonowanie stron WWW, "Marketing w praktyce" 2002, nr 3 (49), s. 46.

2 T. Karolak, Promocja przez wyszukiwarki, "Marketing w praktyce" 2003, nr 10 (68), s. 45.

3 A. Banach, Jak wyszukiwarki stymulują e-handel, "Marketing w praktyce" 2002, nr 9 (55), s. 60.

4 T. Karolak, dz. cyt., s. 45.

5 T. Jastrzębowski, Witryna na widoku, "Press" 2003, nr 5(88), s. 50.

6 T. Karolak, dz. cyt., s. 45-46.

7 T. Jastrzębowski, dz. cyt., s. 50.

8 M. Pękalski, dz. cyt., s. 46.

9 A. Zasada, M. Minakowski, Jak znaleźć klientów przez wyszukiwarkę internetową, "Brief" 2004, nr 59/8, s. 34.

10 A. Webb, A. Bielewicz, Walka o miejsce na liście, "Computerworld" 2003, nr 36 (592), s. 26-27.

11 G. Anthes, Poszukiwacze przyszłości, "Computerworld" 2004, nr 16(620), s. 18.

12 M. Pękalski, dz. cyt. s. 46.

13 A. Zasada, M. Minakowski, Jak znaleźć klientów przez wyszukiwarkę internetową, "Brief" 2004, nr 59/8, s. 34.