AAA

Internet - medium informacji versus dezinformacji1

Magdalena Szpunar

Opracowanie stara się odpowiedzieć na pytanie, czy internet jest medium informacji, czy też dezinformacji. Autorka podejmuje kwestię jakości i rzetelności informacji w internecie oraz ważności tego medium jako źródła pozyskiwania informacji. Stara się odpowiedzieć na pytanie, jak weryfikować wyszukane w internecie informacje oraz jakie cechy są przypisywane informacjom pozyskanym z internetu, w stosunku do alternatywnych źródeł informacji. Opracowanie podejmuje również kwestię istotności internetu w procesie nauczania w perspektywie nauczycieli akademickich i studentów.

Miejsce internetu jako źródła pozyskiwania informacji jest znaczące. Internet staje się jednym z najważniejszych źródeł informacji. Potwierdzają to badania amerykańskie, według których wśród zaawansowanych użytkowników internet staje się głównym źródłem informacji. Niestety, informacje zamieszczane w internecie są słabo uporządkowane, często źle sklasyfikowane, istnieją w wielu formatach, dodatkowo proces wyszukiwania informacji utrudnia stale zmieniająca się struktura internetu zarówno pod względem ilości, jak i zawartości2.

Dodatkowo, proces pozyskiwania informacji w internecie jest żmudny, pracochłonny, niedający gwarancji dotarcia do interesującej nas informacji. Trudności w odnalezieniu poszukiwanej informacji leżą po stronie projektantów stron, którzy nieprawidłowo kodują stronę (niewłaściwe nagłówki, nietrafne słowa kluczowe lub ich całkowity brak, tytuł nieodzwierciedlający zawartości). Ułomne są tu również algorytmy wyszukiwania zawartości słów w tekście.

Początkowo wyszukiwarki opierały się głównie o słowa kluczowe, które projektant strony ustalał na danej stronie WWW w nagłówku meta. Prowadziło to do nadużycia głównie ze strony komercyjnych witryn, których właścicielom zależało na wyższej pozycji w rankingu wyszukiwania. Był to świadomy zabieg wprowadzający użytkowników w błąd, stosowany w celach marketingowych. Aby uniknąć tego typu przekłamań, inżynierowie zarządzający wyszukiwarkami zaprojektowali lepsze metody indeksowania stron. Obecnie główną zasadą klasyfikacji zawartości tekstowej strony WWW jest ranking występowania wyrazów bądź łańcuchów znaków. Odbywa się to poprzez indeksowanie w pierwszej kolejności nagłówków strony i podnagłówków - aż po tekstową zawartość strony. Oprócz tego wiodąca wyszukiwarka stosuje tzw. PageRank, czyli metodę zliczania odsyłaczy (linków) do danej strony. Wartość punktów odsyłacza prowadzącego do danej strony jest tym większa, im wyższe miejsce w rankingu zajmuje strona z odsyłaczem. Jednakże powyższe metody mają swoje słabe punkty. Wystarczy, że projektant umieści linki na kilkunastu różnych stronach (różnych firm), wzajemnie prowadzące do siebie, aby PageRank wzrósł. Poza tym stosuje się zmianę zawartości strony w zależności od "oglądającego" (inaczej strona wygląda dla użytkownika, inaczej dla wyszukiwarki).

Warto sobie odpowiedzieć na pytanie, jak internet jest traktowany(jako medium), jeśli chodzi o jego rzetelność i wiarygodność. Nierzadko internet jest, niestety, "wstydliwym" miejscem, uważanym za mało profesjonalne i nienaukowe źródło. Należy też jednak odnotować, iż coraz częściej netografia (wykaz przypisów źródeł internetowych) znajduje, obok bibliografii, pełnoprawne miejsce w wielu artykułach naukowych. Warto pamiętać, iż elektroniczna wersja publikacji merytorycznie niczym nie różni się od swojego odpowiednika w formie papierowej. Nawet więcej, poszerza ona potencjalny krąg osób mogących dotrzeć do owej publikacji. Pozwala tę publikację wzbogacić o odnośniki, informacje multimedialne czy interaktywny kontakt z czytelnikiem, np. poprzez e-mail, forum dyskusyjne czy blog. Dodatkowe zalety, takie jak szybkość zamieszczania informacji, niski koszt jej publikowania i wspomniana już niemal nieograniczona dostępność czytelnika do informacji, powinny sprawić, że internet stanie się mekką dla naukowców. Niestety, bardzo często medium to traktowane jest z pewną rezerwą i nieufnością. Postawić można hipotezę, iż egzegezy niechęci do elektronicznego tekstu należy szukać w strachu przed nowością, trudnościach z jego odczytywaniem (szczególnie u osób starszych) czy "ulotności" owych publikacji. Wiele wartościowych stron przestaje być dostępnych, autorzy przestają je w ogóle aktualizować bądź tracą motywację do ich prowadzenia. Być może w przypadku osób starszych ekran monitora kojarzy się z ekranem telewizyjnym, serwującym informacje o niskiej jakości. Można nawet odnieść wrażenie, że media wcale nie chcą nas informować, a pokazywać obrazki.

Przykładem może być tutaj jedna z najpopularniejszych książek do programowania w języku Java autorstwa B. Eckela Thinking In Java. Autor pierwotnie zamieścił ją w formie elektronicznej w sieci. Niektórzy to działanie uznali za szaleństwo, sugerując autorowi, że książka w ten sposób na pewno się nie sprzeda. Otóż okazało się całkiem inaczej. Sieć stała się najlepszym sposobem na reklamę. Zainteresowane osoby przysyłały życzliwe uwagi odnośnie błędów i uzupełnień, dzięki czemu powstał doskonalszy podręcznik programowania. Publikacja w formie książki stała się wspólnym dziełem zarówno autora, jak i jego czytelników.

Niechęć części polskich naukowców do środowiska elektronicznego jako pełnoprawnego medium informacyjnego jest tym bardziej niezrozumiała, że źródła internetu sięgają właśnie do korzeni akademickich. W roku 1969 Departament Obrony USA powołał do życia projekt ARPA (Advanced Research Project Agency), którego celem było wykorzystanie potencjału naukowego środowiska akademickiego do budowy lepszego technicznie uzbrojenia. Zaproponowany przez P. Barana projekt zdecentralizowanej sieci komunikacyjnej, mającej przetrwać atak jądrowy, z powodzeniem funkcjonował na University of California w Los Angeles, Stanford Research Institute, University of California w Santa Barbara oraz University of Utah. Trzy lata później działało już 15 węzłów, z których większość znajdowała się w uniwersyteckich centrach badawczych3.

Dlaczego więc tak wiele osób (w tym i naukowców) nie ufa informacjom zamieszczanym w sieci i ocenia je jako nierzetelne? Po pierwsze, dość trudno weryfikować rzetelność i prawdziwość informacji tam zamieszczanych (poza witrynami oficjalnie uznawanymi za naukowe i rządowe np. z końcówką edu, sci.pl, gov). Zdecydowana większość portali edukacyjnych ma charakter typu non-profit (niedochodowy), np. Wikipedia (encyklopedia online tworzona przez internautów), gdzie sami użytkownicy internetu mają możliwość oceny jakości i rzetelności informacji tam zamieszczonych. Możliwość recenzji i reedycji gwarantuje uzyskanie, opracowanie hasła o wysokiej jakości. W Polsce dopiero rozwija się edycja internetowych publikacji naukowych. Niektórzy naukowcy decydują się na zamieszczenie swoich publikacji online, dzięki czemu wzrasta grono osób, które mogą mieć dostęp do nich. Informacje opatrzone imieniem, nazwiskiem oraz stopniem naukowym są tak samo wartościowe jak tradycyjna forma książkowa.

W przypadku portali komercyjnych chęć szybkiego i łatwego zysku sprawia, że jakość i rzetelność informacji ma drugorzędne znaczenie. Pojawiające się tam artykuły stanowią niejako jedynie tło, do natarczywie wyświetlanych reklam. Oczywiście takiego zarzutu nie można wysuwać pod adresem liczących się portali znanych dzienników opiniotwórczych, jak gazeta.pl, czy rzeczpospolita.pl.

Po wtóre, internet wielu osobom kojarzy się z niechlubnym procederem kopiowania prac. Społeczne przyzwolenie na "ściąganie", sprawia, że internet zamiast być rzetelnym źródłem pozyskiwania wiedzy, staje się przysłowiową puszką Pandory. Trudno więc w takiej sytuacji oczekiwać ze strony np. nauczycieli akademickich entuzjazmu w tej kwestii. Nauczyciele akademiccy, jeśli już decydują się na dostarczanie studentom materiałów przez internet, to najczęściej informują tą drogą o wynikach egzaminów i zaliczeń (47,8%), przekazują teksty źródłowe (41,8%), programy nauczania (39,6%), harmonogramy (35,1%), instrukcje do ćwiczeń (31,3%), tezy wykładów i ćwiczeń (29,1%)4.

Jakość informacji w internecie

Z badań prowadzonych na gruncie amerykańskim wynika, iż co drugi respondent ocenia internet jako ważne źródło informacji (23,7% wskazań jako niezwykle ważny, 31,5% jako bardzo ważny). Co trzeci badany (34,4%) ocenia internet jako średnio ważne źródło informacji, 6,7% jako niezbyt ważne, a dla 3,8% to w ogóle nieważne źródło informacji5.

Rysunek 1. Internet jako źródło informacji

Źródło: Opracowanie własne, na podst. J., Cole, M. Suman, P. Schramm, R. Lunn, i in., The digital future report. Surveying the digital future year four, University of Southern California, 2004 [04.03.2007]

Z badań prowadzonych przez autorkę w 2006 roku wynika , iż zdecydowana większość badanych (82%) stwierdza, iż internet jest dla nich ważnym źródłem informacji (bardzo ważnym dla 40% i raczej ważnym dla 42%). 12% badanych nie potrafi ocenić istotności internetu jako źródła informacji, a dla 3,5% jest to raczej niezbyt ważne źródło.

Rysunek 2. Ocena ważności internetu jako źródła informacji

Źródło: Opracowanie na podstawie badań własnych autorki "Społeczna przestrzeń internetu"

Wiarygodność informacji w internecie

Każde źródło informacji ma właściwe sobie cechy i jest przez nas inaczej postrzegane. Informacje w internecie są charakteryzowane przez respondentów jako godne zaufania i dające możliwość dostępu w dowolnym czasie, informacje telewizyjne jako bezstronne i bieżące, a informacje prasowe jako wyważone i rzetelne7.

Z badań prowadzonych przez K. Polańską wynika, iż kluczowym elementem przy ocenie wiarygodności danej informacji jest zaufanie do źródła podającego informację - 59%, aktualność informacji - 53,7%, logiczne powiązanie informacji z innymi faktami lub informacjami - 45,4% oraz podanie takiej samej informacji przez kilka niezależnych źródeł - 41,7%8.

Co drugi badany przez autorkę respondent w badaniu Społeczna przestrzeń internetu stwierdził, iż większość informacji w internecie jest wiarygodna (45%), taki sam odsetek badanych uważa, że około połowa informacji publikowanych w sieci jest wiarygodna, a 6% twierdzi, że jest to znacznie mniejsza ich część.

Rysunek 3. Ocena wiarygodności informacji zamieszczanych w internecie (w %)

Źródło: Opracowanie na podstawie badań własnych autorki "Społeczna przestrzeń internetu"

Jako najbardziej wiarygodne źródło informacji respondenci ocenili książki - średnia ocena 4,219 oraz internet - średnia ocena 3,56. Kolejne pozycje zajmuje radio - średnia ocena 3,44 i niemal taką samą liczbę wskazań otrzymuje prasa periodyczna - średnia ocena 3,37. Najmniej wiarygodnym źródłem pozyskiwania informacji jest zdaniem badanych telewizja - 3,23 oraz prasa codzienna - średnia ocena 3,19.

Rysunek 4. Wiarygodność źródeł informacji

Źródło: Opracowanie na podstawie badań własnych autorki "Społeczna przestrzeń internetu"

Z badań prowadzonych w krakowskim środowisku akademickim wynika, iż studenci nie są bezkrytyczni wobec informacji poszukiwanych w sieci. Niemal 70% badanych studentów stosuje różne procedury selekcji informacji dostępnych w internecie. Najczęściej stosowanym kryterium selekcyjnym jest odwiedzanie stron rekomendowanych przez znajomych oraz stron polecanych przez wykładowców. Często również studenci przyznają, iż odwiedzają wyłącznie portale pod patronatem instytutów badawczych bądź zawierające publikacje znanych wydawnictw. Co trzeci student nie zwraca na tę kwestię żadnej uwagi10.

Rysunek 5. Sposoby weryfikacji rzetelności informacji w sieci (dane w %)

Źródło: Opracowanie własne, na podst., T. Majcherkiewicz, D. Żuchowska-Skiba, dz. cyt.

Za wiarygodne można uznać informacje11:

  • potwierdzone w kilku źródłach - jeśli kilka serwisów publikuje tę samą informację, możemy postawić hipotezę, że jest ona prawdziwa;

  • publikowane w sieci przez podmioty cieszące się autorytetem, mające swoje odbicie w rzeczywistości materialnej (np. www.gazeta.pl, www.rzeczpospolita.pl), cieszy się zaufaniem społecznym (np. www.wosp.org.pl) lub jest znanym autorytetem np. w dziedzinie nauki;

  • znajdujące się na stronie rządowej (np. www.mf.gov.pl).

Jak porządkować informacje?

Do danych w internecie możemy dotrzeć w wieloraki sposób:

  1. bezpośrednio (za pomocą adresu internetowego);
  2. pośrednio:
    1. za pomocą katalogów,
    2. za pomocą zbiorów ulubionych linków (np. http://del.icio.us, http://www.stumbleupon.com),
    3. za pomocą wyszukiwarek (np. Google, Onet, Yahoo, MSN).
Bezpośrednie skorzystanie ze źródła informacji - np. odwiedziny strony domowej, nie wiążą się z żadnym szumem informacyjnym - trafiamy tam, gdzie chcieliśmy. Katalogi tworzone są głównie przez wyszukiwarki np. Onet katalog czy Google katalog. Ranking, czyli pozycja w katalogu, niejednokrotnie wiąże się z opłatami. W tym miejscu mamy już do czynienia z pewnym szumem informacyjnym, gdyż na wysokich pozycjach znajdują się witryny, które na to stać, a nie te, które zawierają interesujące nas informacje. Zbiory ulubionych linków umożliwiają znalezienie nie tyle konkretnej, interesującej nas informacji np. łańcucha znaków, ile określonego zakresu informacji. Dzięki temu możemy trafić na witryny, które polecają inni użytkownicy np. w Stumbleupon, a które w wyszukiwarkach zajmują tak odległe miejsca, że istnieje nikła szansa na dotarcie do nich. Taki sposób porządkowania internetu z pewnością jest przyszłościowy. Wystarczy bowiem przejrzeć linki użytkowników o podobnych zainteresowaniach, a trafimy wówczas na witryny, których jeszcze nie odwiedziliśmy. Odpada tu również element komercyjnego marketingu i sztucznego podnoszenia wartości strony (stosowany np. w katalogach zarządzanych przez konkretną firmę). Jednakże do wyszukiwania konkretnego ciągu znaków (wyrazów), ten sposób nie jest najwłaściwszy. Wyszukiwanie poprzez wyszukiwarki bazuje na zawartości tekstowej, graficznej itp. na stronie, jednak nie jest to inteligentny sposób wyszukiwania, a statystyczny. Liczy się liczba występowania danego wyrazu na stronie. Wyszukiwanie w języku polskim posiada jeszcze tę wadę, że występują odmiany rzeczownikowe, które nie są obecne w wiodącym języku internetu, czyli angielskim. Wyszukiwarki nie uwzględniają również wyrazów bliskoznacznych.

Podsumowanie

Niewątpliwą zaletą informacji pozyskiwanych z internetu jest niemal natychmiastowa możliwość ich otrzymywania, możliwość uzyskania pogłębionych informacji z innych źródeł (odnośników), a także szybka ich weryfikacja w samym internecie. Niestety, proces dotarcia do interesującej nas informacji (w zależności od jej złożoności) z reguły jest żmudny i w wielu przypadkach nietrafny. Wyszukiwarki internetowe nie zawsze pokazują to, czego byśmy oczekiwali. Ważny jest tutaj proces selekcji i precyzji zadanego przez nas zapytania. W sytuacji, gdy nie potrafimy precyzyjnie określić, czego szukamy, proces ten komplikuje się jeszcze bardziej.

Łatwość i szybkość publikowania informacji w sieci sprawia, że problematyczna staje się również kwestia jakości i rzetelności informacji pozyskiwanych z internetu. Obok wiarygodnych, rzetelnych i aktualnych, pojawiają się informacje błędne, czasem nawet świadomie wprowadzające potencjalnego odbiorcę w błąd.

Informacje pozyskane w ten sposób warto weryfikować chociażby poprzez potwierdzenie ich w kilku źródłach. Mimo wielu kryteriów selekcji informacji zamieszczanych w internecie (pod względem ich wiarygodności), należy odnosić się do nich z pewną dozą nieufności. Nawet w najlepszych serwisach zdarzają się pomyłki i chodzi tutaj nie tylko o drobne uchybienia typu literówki, ale także o błędy merytoryczne, mylnie przedstawiające pewne fakty, a nawet podające informacje nieprawdziwe. Sytuację tę potęguje fakt, że informacja w internecie stale się zmienia. Największe portale aktualizują swoje serwisy nawet kilka lub kilkanaście razy dziennie, nietrudno więc w takiej sytuacji o pomyłkę. Internet jest i będzie medium, które ciągle zyskuje na znaczeniu. Informacje pozyskiwane za jego pośrednictwem coraz częściej oceniane są jako bardziej wiarygodne niż informacje pochodzące z takich źródeł, jak prasa, radio czy telewizja.

Ekran monitora wypiera tradycyjne, papierowe formy wydań gazet. Ikona prasy codziennej "New York Times" ma więcej czytelników swojej wersji online niż tradycyjnej papierowej wersji. Sprzedaż dzienników w USA spada drastycznie. W roku 1984 sprzedawało się średnio 20 mln egzemplarzy więcej niż pod koniec września 2006. Podobna sytuacja dotyczy polskiego rynku prasowego, jednakże nie wszystkie gazety decydują się przenieść swoje wydania do internetu. Wydaje się jednak, że elektroniczna prasa stanowi przyszłość rynku wydawniczego i gazety, które chcą przetrwać, będą musiały wykonać krok ku elektronicznym wersjom swoich tytułów.

Bibliografia

  • M. Castells, Galaktyka Internetu. Refleksje nad Internetem, biznesem i społeczeństwem, Rebis, Poznań 2003.
  • J. Feiner, Metodyczne aspekty wykorzystania technologii informacyjnej i Internetu w procesie edukacyjnym AGH, [w:] L. Haber (red.), Polskie doświadczenia w kształtowaniu społeczeństwa informacyjnego, AGH, Kraków 2002.
  • T. Majcherkiewicz, D. Żuchowska-Skiba, Internet i nowe technologie komunikowania. Ich rola w procesie kształcenia środowiska młodzieży akademickiej, [w:] L. Haber (red.), Akademicka społeczność informacyjna. Na przykładzie środowiska akademickiego Akademii Górniczo-Hutniczej, Uniwersytetu Jagiellońskiego i Akademii Górniczo-Hutniczej, AGH Kraków 2005.
  • T. Masłyk, Pomiędzy informacją a wiedzą. Internet w procesie dydaktycznym szkoły wyższej, [w:] L. Haber (red.), Akademicka społeczność informacyjna. Na przykładzie środowiska akademickiego Akademii Górniczo-Hutniczej, Uniwersytetu Jagiellońskiego i Akademii Górniczo-Hutniczej, AGH, Kraków 2005.
  • D. Nicholas, Ocena potrzeb informacyjnych w dobie Internetu, Wydawnictwo SBP, Warszawa 2001.
  • K. Polańska, Informacja, jej wiarygodność i co z nich dla nas wynika, [w:] A. Szewczyk (red.), Informacja - dobra lub zła nowina, Uniwersytet Szczeciński, Szczecin 2004.
  • K. Stankiewicz, Wpływ Internetu na percepcję wiarygodności informacji [w:] L. Haber, Społeczeństwo informacyjne. Wizja czy rzeczywistość?, AGH, Kraków 2004.
  • W. Szostak, Problem publikowania prac naukowych w Internecie. [w:] L. Haber (red.), Polskie doświadczenia w kształtowaniu społeczeństwa informacyjnego, AGH, Kraków 2002.
  • D. Wilk-Kołodziejczyk, Pozyskiwanie wiedzy w sieciach komputerowych z rozproszonych źródeł informacji, [w:] L. Haber, Społeczeństwo informacyjne. Wizja czy rzeczywistość?, AGH, Kraków 2004.

Netografia

INFORMACJE O AUTORZE

MAGDALENA SZPUNAR
Autorka jest pracownikiem Wyższej Szkoły Informatyki i Zarządzania w Rzeszowie oraz doktorantką Uniwersytetu Jagiellońskiego. Autorka kilkudziesięciu artykułów oraz kilku projektów badawczych. Obecnie realizuje grant promotorski MNiI. W roku akademickim 2006/2007 otrzymała stypendium Uniwersytetu Jagiellońskiego dla doktorantów za osiągnięcia naukowe.

 

Komentarze

Nie ma jeszcze komentarzy do tego artykułu.

dodaj komentarz dodaj komentarz

Przypisy

1 Artykuł powstał przy wsparciu Ministerstwa Nauki i Informatyzacji w ramach grantu Społeczna przestrzeń Internetu.

2 Por. D. Wilk-Kołodziejczyk, Pozyskiwanie wiedzy w sieciach komputerowych z rozproszonych źródeł informacji, [w:] L. Haber, Społeczeństwo informacyjne. Wizja czy rzeczywistość?, AGH, Kraków 2004, s. 289.

3 M. Castells, Galaktyka internetu. Refleksje nad internetem, biznesem i społeczeństwem, Rebis, Poznań 2003, s. 20.

4 T. Masłyk, Pomiędzy informacją a wiedzą. Internet w procesie dydaktycznym szkoły wyższej, [w:] L. Haber (red.), Akademicka społeczność informacyjna. Na przykładzie środowiska akademickiego Akademii Górniczo-Hutniczej, Uniwersytetu Jagiellońskiego i Akademii Górniczo-Hutniczej, AGH, Kraków 2005, s. 214.

5 J. Cole, M. Suman, P. Schramm, R. Lunn i in., The digital future report. Surveying the digital future year four, University of Southern California, 2004, s. 49, www.digitalcenter.o.... [04.03.2007].

6 Badanie Społeczna przestrzeń internetu przeprowadzono na próbie 1317 osób przy pomocy kwestionariusza ankiety zamieszczonego w internecie; aby uzyskać jak najbardziej reprezentatywną próbę zastosowano ważenie obserwacji. Procesu ważenia dokonano względem najistotniejszych cech z punktu widzenia komunikacji internetowej: korzystania z poczty elektronicznej, forum dyskusyjnego oraz komunikatora. Jako podstawę ważenia wybrano reprezentatywne badania ogólnopolskie Diagnoza Społeczna 2005 przeprowadzone na próbie 12 731 członków gospodarstw domowych.

7 K. Stankiewicz, Wpływ Internetu na percepcję wiarygodności informacji, [w:] L. Haber, Społeczeństwo informacyjne. Wizja czy rzeczywistość?, AGH, Kraków 2004, s. 409.

8 K. Polańska, Informacja, jej wiarygodność i co z ich dla nas wynika, [w:] A. Szewczyk (red.), Informacja - dobra lub zła nowina, Uniwersytet Szczeciński, Szczecin 2004.

9 Odpowiedzi miały charakter rangi, 1 – oznaczono źródło najmniej wiarygodne, 5 – najbardziej wiarygodne.

10 T. Majcherkiewicz, D. Żuchowska-Skiba, Internet i nowe technologie komunikowania. Ich rola w procesie kształcenia środowiska młodzieży akademickiej, [w:] L. Haber (red.), Akademicka społeczność informacyjna. Na przykładzie środowiska akademickiego Akademii Górniczo-Hutniczej, Uniwersytetu Jagiellońskiego i Akademii Górniczo-Hutniczej, AGH, Kraków 2005, s. 114-115.

11 D. Nicholas, Ocena potrzeb informacyjnych w dobie Internetu, SBP, Warszawa 2001, s. 58.