AAA

Dostęp do treści w internecie -
perspektywa regulacji

Włodzimierz Szpringer

Wprowadzenie

Artykuł dotyczy problemu regulacji dostępu do treści w internecie w dobie Web 2.0 - kontekstem są ekonomiczne oraz technologiczne uwarunkowania regulacji cyberprzestrzeni. Autor próbuje odpowiedzieć na dwa kluczowe pytania: jakie kierunki rozwoju prawa autorskiego czy praw własności przemysłowej należy uznać za perspektywiczne oraz jak pogodzić rolę prawa i technologii w projektowaniu zabezpieczeń ograniczających niekontrolowany dostęp do treści. Zachowania ludzi są regulowane w procesie wzajemnego oddziaływania czterech czynników: prawa, rynku, norm społecznych oraz technologii. Technologia z jednej strony daje do dyspozycji wiele mechanizmów ochronnych, z drugiej zaś umożliwia ich daleko posuniętą indywidualizację i adaptację do danego przypadku. Można przypuszczać, że w przyszłości będziemy mieć do czynienia z kombinacją ochrony poprzez regulację prawną oraz zabezpieczenia technologiczne. Kluczowy problemem jest określenie "złotego środka" między restrykcyjną egzekucją praw a permisywnym podejściem internautów do korzystania z treści poddanych ochronie, a przy okazji korzystania przez dostawców z zaangażowania internautów w promocję ulubionych utworów w ramach Web 2.0.

Problematyka regulacji cyberprzestrzeni (ekonomia a prawo)

Powstaje pytanie, czy jest potrzebna (a przede wszystkim - wykonalna) regulacja cyberprzestrzeni? W tej kwestii możliwe są następujące opcje:

  • brak regulacji w ogóle,
  • tradycyjna regulacja krajowa,
  • regulacja w formie traktatów i konwencji międzynarodowych,
  • samoregulacja lub koregulacja (kojarząca regulację i samoregulację),
  • regulacja dzięki technologii - wykorzystująca infrastrukturę techniczną,
  • architekturę sieci, właściwości sprzętu i oprogramowania (lex informatica vs code-based-regulation).
Ostatnia koncepcja wymaga wyjaśnienia - nawiązuje ona niewątpliwie do lex mercatoria, czyli idei globalnej regulacji umów. H. Reidenberg analizuje trzy kluczowe obszary takiej regulacji: prawa własności, treść i prywatność1.

W kwestii praw własności - w odpowiedzi na braki prawa własności intelektualnej i przemysłowej - proponuje się korzystanie z systemów opartych na technologii, np. Web caching, trusted systems, Digital Rights Management - DRM. Technologie te umożliwiają dysponowanie wieloma mechanizmami ochronnymi, pozwalają również na ich daleko posuniętą indywidualizację i adaptację do danego przypadku - w ten sposób właściciele danego oprogramowania mogą kontrolować jego użytkowanie.

W zakresie regulacji dotyczących treści możliwe jest przede wszystkim zastosowanie mechanizmów selekcji materiałów zakazanych przez prawo w wielu krajach2 - prezentujących treści pornograficzne, rasistowskie, nazistowskie itp. W tym celu konstruuje się platformy cenzurujące treść (Platform for Internet Content Selection - PICS) bez naruszania konstytucyjnego prawa do swobody wypowiedzi - zatem ingerencja merytoryczna nie wykracza poza ściśle zdefiniowane obszary zakazane.

W zakresie prywatności rozwijają się aplikacje i standardy, różne w poszczególnych krajach. Proponuje się m.in. mechanizmy anonimizacji danych osobowych (I/PRO), a także specjalne oprogramowanie bazujące na PICS - umożliwiające użytkownikowi kontrolę dystrybucji informacji osobowych. W tym przypadku stosuje się m.in. kryptografię oraz certyfikację e-podpisów.

Regulacja dzięki technologii - lex informatica - wywołuje natomiast wiele wątpliwości. W szczególności dotyczą one braku pewności prawnej, predyktywności zmieniających się dynamicznie rozwiązań technologicznych, arbitralności w doborze kluczowych standardów, a także braku demokratycznej legitymizacji podmiotów dokonujących standaryzacji.

Koncepcję regulacji dzięki technologii rozwinęli L. Lessig i N. Luhmann, według których zachowania ludzi są regulowane w procesie wzajemnego oddziaływania czterech czynników:
  • prawa,
  • rynku,
  • norm społecznych,
  • technologii.
Autorzy korzystają z kategorii prawnych - przede wszystkim z własności i odpowiedzialności oraz zmian w konfiguracji praw w drodze kontraktów - z uwzględnieniem kosztów transakcyjnych, a zatem z dorobku szkoły chicagowskiej (G. Calabresi, A.D. Melamed). Rozumieją obawy związane z koniecznością wprowadzenia technologicznych regulacji treści internetowych, bardziej jednak obawiają się wszechwładnego państwa i permanentnej inwigilacji w sieci. A gdyby nie rozwijano lex informatica, państwo uznałoby za słuszne i celowe regulowanie sieci, znacznie wykraczające poza obecny zakres (np. własności intelektualnej i przemysłowej, ochrony konkurencji i konsumenta)3.

Proces innowacyjny a rola innowacji w gospodarce

Proces innowacyjny i rola innowacji w gospodarce nadal budzi spory. Teoria ekonomii mówi, że więcej inwestycji B+R prowadzi do większej liczby innowacji, a ta z kolei - przyśpiesza wzrost gospodarczy. Okazuje się jednak, że badania empiryczne nie potwierdziły dotąd tych (a zwłaszcza tej ostatniej) współzależności. Podobnie wiele niejasności zachodzi między polityką i prawem konkurencji a rynkiem innowacji i technologii. Czy konkurencja w gospodarce wspiera, czy osłabia innowacje? W świetle teorii ekonomii, jeżeli polityka konkurencji redukuje nagrodę, to bodźce proinnowacyjne i postęp technologiczny, a więc i dobrobyt konsumenta, powinny słabnąć. Również te relacje nie są w pełni naukowo potwierdzone4.

Należy wszelako zaznaczyć, że często przyjmuje się w sposób uproszczony: funkcję zysku - z innowacyjności oraz kary (z powodu jej braku). Pierwszy człon maleje wprawdzie przy intensywnej konkurencji (gdyż maleje stopa zysku), ale z drugiej strony - konkurencyjność zmusza do innowacyjności (wymuszając dyferencjację i lepszą jakość produktu albo obniżki kosztowe wynikające z nowych technologii).

Prawo własności intelektualnej, a w szczególności prawo autorskie, przez długi okres wymykało się ekonomicznej analizie prawa. Obecnie jednak przekracza ono granice kultury i sztuki, z którymi było dotąd utożsamiane i wchodzi w obszary istotne dla biznesu. Dlatego warto w tym obszarze podjąć badania interdyscyplinarne, które wcześniej sprawdziły się w prawie własności przemysłowej i przyniosły wiele wartościowych efektów.

W tej mierze istnieje wiele koncepcji - jedna z nich mówi na przykład, że informacja i wiedza są dobrami publicznymi, gdzie w sferze podaży nie powinno być wyłączności, a w sferze popytu - rywalizacji. Prawo do rozporządzania informacją byłoby zatem wystarczającym bodźcem do jej wytwarzania. Inna koncepcja wskazuje na znaczące pozytywne efekty zewnętrzne, które powstają dzięki innowacjom. Prawa wyłączne stanowią najlepszy bodziec do efektywnej alokacji zasobów oraz do zarządzania aktywami niematerialnymi5.

Równocześnie zwraca się uwagę na potrzebę uwzględnienia racjonalnego podejścia do ochrony rzeczy materialnych i praw niematerialnych, a w szczególności na wysokie koszty ochrony praw własności intelektualnej i przemysłowej, które stawiają pod znakiem zapytania celowość istniejących instytucji6.

Zbyt silna ochrona praw własności intelektualnej lub przemysłowej prowadzi do niepożądanej - z perspektywy gospodarki - centralizacji i ujednolicenia "produkcji" informacji i wiedzy (tragedy of anticommons). Gdy wielu różnych dysponentów posiada prawa do danego zasobu, wówczas z powodu kosztów transakcyjnych, a także w rezultacie zachowań strategicznych, może dochodzić do zaniżonego - w stosunku do realnych potrzeb - stopnia użytkowania tego zasobu.

Powstaje zatem pytanie, czy państwo powinno obniżyć standardy ochrony? Odpowiedź nie jest łatwa, ponieważ nie wszystko jest pochodną działań państwa. Firmy i społeczność sieciowa stworzyły system Linux i zasady licencjonowania w dużej mierze niezależnie od państwa także po to, by przeciwstawić się nadmiernej ochronie praw na rynku oprogramowania. Podobna była idea tworzenia otwartych, dostępnych publicznie banków informacji genowej. Takie prywatne, oddolne inicjatywy, korygujące niedoskonałe prawo określono w ekonomicznej analizie prawa jako Order despite Law.

W trybie kontraktowym mogą się z czasem wytworzyć reguły gry (liability rules) o dość powszechnym zasięgu, łagodzące nietrafne prawo (por. Creative Commons7, "poole patentowe"8, relacje między autorami lub artystami a dystrybutorami lub studiami nagrań). Czasami powstają funkcjonalne ekwiwalenty regulacji, które również umożliwiają jednostkom kreatywność i sukces biznesowy (np. ochrona przepisów kucharskich we Francji, wzorców mody w USA). Odrębną kwestią, z pogranicza ekonomii, prawa i psychologii, jest motywacja społeczności wolontariuszy, np. do współtworzenia programów open source.

Innym polem konfliktów na tle ochrony praw wyłącznych jest standaryzacja. Gdy technologia standardu bazuje na setkach czy tysiącach patentów, powstaje problem koordynacji działań licznych dysponentów, między którymi występują zachowania strategiczne. Utrudnia to proces standaryzacji, zawyża opłaty licencyjne, a tym samym rozwój produktów bazujących na standardzie (hold-up). Należy wskazać również na uwikłania standaryzacji w sferze prawa konkurencji, kontrowersyjność narzucania tzw. licencji przymusowych oraz udostępnianie "urządzeń kluczowych" (essentials facilities).

Za mało jest bezspornej wiedzy nt. rynku innowacji, opartej na podstawach empirycznych, by wygłaszać kategoryczne sądy. Z tego punktu widzenia decyzje Komisji Europejskiej czy ETS (Microsoft, IMS Health), uzasadniane apriorycznymi argumentami ekonomii dobrobytu, narzucające np. ujawnienie kodu źródłowego, należy ocenić jako wysoce dyskusyjne.

Sporna jest również zdolność patentowa oprogramowania, a ściślej - wynalazków opartych na funkcjonowaniu komputera. Istnieje wiele poziomów funkcjonalności oprogramowania i nie można wykluczyć z góry patentowania także w ramach obowiązujących regulacji, które poddają oprogramowanie jako takie ochronie prawa autorskiego. Ponadto sam program w skojarzeniu z dziedzinami, którymi steruje, podlega rozwojowi mogącemu posiadać aspekty techniczne, walory nowości i nadawać się do komercyjnego wykorzystania.

Poprzestając na stwierdzeniu, że istnieją argumenty "za" i "przeciw" (szeroki ich przegląd dała dyskusja nad projektem dyrektywy UE w Parlamencie Europejskim, zakończona odrzuceniem pierwszego projektu), należy zauważyć, że w USA - po formalnej implementacji możliwości patentowania wynalazków opartych na oprogramowaniu komputerowym - nakłady czołowych korporacji na badania wyraźnie spadły9.

Twierdzenie, że wdrożenie tej instytucji promuje innowacje, byłoby obecnie nadużyciem, a w każdym razie musiałoby jako hipoteza zostać zweryfikowane. Istnieją bowiem dowody, iż szeroka ochrona patentowa w danej dziedzinie może wręcz blokować postęp technologiczny.

Uściślenia wymagałaby również definicja "wynalazku", by móc wytyczyć granice między samym programem komputerowym a efektami jego zastosowania w różnych systemach technicznych, społecznych czy ekonomicznych (np. metody handlu). Niewątpliwie także coraz szersze zastosowanie komputerów skłania do rozbudowania kategorii techniki.

Systemy DRM

W internecie powstaje alternatywa dla tradycyjnych kanałów dystrybucji informacji. Obecnie indywidualni użytkownicy pełnią role wydawców, producentów itp., a ich partycypacja w tworzeniu zasobów internetu doprowadziła do stworzenia pojęcia Web 2.0 dla adekwatnej charakterystyki tych zjawisk.

Z jednej strony eliminacja części pośredników pojawiających się na drodze, jaką przebywają cyfrowe treści od twórców do odbiorców, jest pożądanym zjawiskiem. Obniża to koszty zarówno samego udostępniania materiałów w internecie, jak i ich pozyskiwania. Z drugiej strony niesie to ze sobą pytania o prawne aspekty funkcjonowania serwisów społeczności internetowych, a w szczególności zarządzania nimi10.

Obecnie mamy do czynienia z rozwojem technologicznych metod zabezpieczania interesów twórców, przybierających postać systemów Digital Rights Management (DRM), na które z jednej strony składają się zabezpieczenia techniczne kontrolujące formy eksploatacji utworów, z drugiej zaś elektroniczne identyfikatory, czyli metadane. Można wskazać dwa podstawowe problemy:

  • sposób, w jaki chronione są poszczególne elementy systemów DRM oraz
  • wpływ tych mechanizmów technicznych na tradycyjne konstrukcje prawa autorskiego, w tym szczególnie dozwolony użytek.
Kładąc nacisk na przepisy prawa autorskiego (regulacje prawa międzynarodowego, europejskiego prawa wspólnotowego oraz krajowego), nie należy pomijać innych regulacji przydatnych do ochrony systemów DRM (prawa karnego i przepisów chroniących usługi świadczone w ramach dostępu warunkowego). W związku z tym formułuje się propozycje nowelizacji przepisów polskiego prawa autorskiego w zakresie ochrony zabezpieczeń technicznych utworów w postaci zdigitalizowanej i informacji służących zarządzaniu nimi11.

Rozwój portali oferujących treści w formie cyfrowej (muzyka w formacie mp3, filmy flash, książki elektroniczne) nasila dyskusję o systemach DRM i prawach autorskich. Rodzą się wątpliwości, czy same zabezpieczenia techniczne są wystarczające. Systemy DRM są rozwijane przez różnych właścicieli, tworzą zamknięte kręgi użytkowników i nie są kompatybilne. Przeceniają możliwości prostego transferu zasad korzystania z dóbr dostępnych w formie fizycznej do świata cyfrowego - w drodze kontroli urządzeń końcowych użytkowników (np. komputerów, laptopów, telefonów komórkowych.

Każdy model biznesowy dóbr wirtualnych musi obejmować nie tylko te obiekty oraz ich techniczne funkcje kontrolne, ale także aktorów oraz ich ekonomiczne i prywatne interesy. Niezbędna jest prosta i bezpieczna technologia, wspierająca równowagę interesów między twórcami, dystrybutorami i konsumentami produktów cyfrowych. Należy mieć na uwadze pewne "słabsze" alternatywy instytucjonalne (np. nawiązujące do ochrony przepisów kucharskich czy wzorców mody) oraz hybrydowe formy ochrony (prawne i techniczne), np. e-booki - w zależności od modelu biznesowego - bywają często zablokowane przed dalszym, niekontrolowanym rozpowszechnianiem12.

Istotnym polem badań jest również ocena cyfrowych znaków wodnych (digital watermarks). Przejrzystość i solidność tych znaków bazuje coraz częściej na niepowtarzalnych cechach biometrycznych użytkownika. Systemy DRM oraz perspektywa współtworzenia dzieł multimedialnych i dodawania do utworów różnych usług, rodzą natomiast pewne obawy o ochronę prywatności.

Dystrybucja cyfrowa wymaga metod ochrony własności intelektualnej. W tym zakresie istnieje ciągły postęp technologiczny (digital watermark). Firma musi najpierw określić, jaki model dystrybucji cyfrowej najlepiej jej odpowiada, np. pay-per-view (Eolasia), subskrypcja (Napster), dzielenie się poszukiwanymi utworami (Gnutella). Od tego w pewnej mierze zależy rodzaj zabezpieczeń.

Przykładowo - w modelu pay-per-view chroniona zawartość może być dostarczana klientowi metodą streamingu, co wymaga stosowania ochrony utworów w czasie rzeczywistym. W modelu dzielenia się zawartością przez internautów konieczna jest metoda cesji własności do żądanych dzieł13.

Systemy DRM nie zastępują egzekucji praw. Zbyt restrykcyjna egzekucja praw może być dla przemysłu muzycznego czy filmowego gorsza i przynieść więcej strat niż buforowanie ewentualnych strat wynikających z digitalizacji. Twórcy i dystrybutorzy mogą wręcz korzystać z możliwości marketingowego zaangażowania internautów w ramach Web 2.0 (np. opisujących i polecających innym swoje ulubione utwory).

Łańcuch wartości na bazie semantycznych sieci może obejmować dodatkowe nagrody i promocje w zależności od zaangażowania i twórczego wkładu użytkowników. Wykracza to wówczas poza proste dzielenie się utworami w ramach grup P2P i daje szansę nowego podejścia do problemów prawa autorskiego w gospodarce cyfrowej (superdistribution). Sieci P2P w nowej wersji mogą być autoryzowane przez dostawców zawartości14.

Serwisy Peer-to-Peer (P2P)

Grupy Peer-to-Peer (P2P) powstały dla ułatwienia masowej wymiany plików. Wcześniej podobny efekt można było osiągnąć za pomocą stron WWW i poczty e-mail. Ta forma nie zanikła i nadal istnieje - także w serwisach komercyjnych (abonamenty), które preferują tradycyjną architekturę klient-serwer jako łatwiej poddającą się kontroli i wolną od pewnych zagrożeń typowych dla P2P.

W celu dokonania prawnej oceny ryzyka związanego z serwisami P2P, należy zbadać w konkretnym przypadku, jakie są to sieci, jak działają oraz jakie funkcjonalności oferuje ich oprogramowanie. Z samej nazwy P2P powinno wynikać, że wszyscy uczestnicy sieci mają równy status (peers) i nie ma żadnej centralnej instancji. Nie zawsze jednak tak musi być. Jeżeli można się posłużyć analogią do Grid Computing - tam również w wielu wariantach występuje ośrodek kierowniczy.

Uczestnicy są równi w tym sensie, że każdy z nich może otrzymywać, przechowywać i wysyłać pliki. A zatem zachowana jest relacja klient-serwer w czasie rzeczywistym. Nikt tego nie spowalnia ani nie filtruje. Każdy uczestnik dysponuje autonomią tzn. decyduje samodzielnie, w jakim zakresie i kiedy udostępni innemu swoje zbiory15.

Filesharing, obok Instant-Messaging16 czy Grid Computing17, jest najbardziej popularnym zastosowaniem technologii P2P. Technologia ta łączy algorytmy wyszukiwania z procedurą zdecentralizowanego przechowywania danych. Prostota i łatwość zastosowania, brak konieczności poczynienia znaczących inwestycji powodują, że najbardziej reprezentatywne są tu niekomercyjne platformy P2P. Pojęcie wymiany może być nie zawsze adekwatne, gdyż nie musi zachodzić tutaj wzajemność. Nadawca pliku nie traci go, gdyż odbiorca wykonuje jego kopię. Wymianie podlegają głównie utwory muzyczne w formacie mp3, ale również coraz częściej obrazy, filmy, oprogramowanie oraz książki elektroniczne.

Kryteria wyszukiwania obejmują nie tylko tytuły, ale też parametry jakości utworu, format kompresji dla plików wideo, a także preferencje określonego stylu muzyki czy zainteresowań użytkowników. Oprogramowanie wymusza udostępnienie utworu pozostałym użytkownikom sieci w momencie, gdy utwór jest pobierany przez któregokolwiek nich. Każdy staje się aktywnym oferentem, a granice między rolami: pasywną i aktywną zacierają się.

Sieci P2P można podzielić na centralne i zdecentralizowane. Te pierwsze posiadają centralną platformę (Proxy Server), przez którą przechodzą zapytania internautów. Tam indeksowane są też adresy uczestników i dostępne w danym czasie utwory. W systemach zdecentralizowanych, zamiast centralnej platformy, występuje transmisja zapytań w sieci na zasadzie lawinowej - protokół P2P, oparty na specjalnym oprogramowaniu, umożliwia dalszy obieg danych.

Systemy P2P mogą się opierać na aplikacjach typu open source lub i (np. sieć Gnutella bazuje na oprogramowaniu open source). Oprogramowanie open source daje szersze możliwości udoskonalania programu i dalszego udostępniania w sieci innym uczestnikom w celu rozwoju systemu P2P. Z kolei systemy closed source bardziej poddają się kontroli i są bardziej przyjazne dla użytkownika (np. hybrydowy system Fasttrack).

Można także wskazać na tzw. wyróżnione strony WWW, które pełnią rolę informacyjną i reklamową oraz udostępniają client-software oraz tzw. hash-links, które kojarzą web-hosting i filesharing (po raz pierwszy zastosowano je w serwisie eDonkey). Oba rozwiązania budzą wątpliwości z punktu widzenia prawa autorskiego - podobne do wysuwanych wobec serwisów P2P: contributory infringment (czyli pomoc dla uczestników w obchodzeniu prawa) bądź vicarious infringment (czyli brak skutecznego nadzoru i kontroli).

Wśród centralnych systemów P2P należy przede wszystkim wymienić system Napster. Funkcja centralnego serwera - w toku postępowań sądowych przeciwko Napsterowi - została stopniowo wyeliminowana; częściowo w sposób naturalny - dzięki odtajnieniu kodu źródłowego - nasiliły się tendencje decentralizacyjne. Pojawiły się wtedy nowe, nieautoryzowane postaci client-software - o poszerzonej funkcjonalności, a także nowe index-serwery, formalnie nieautoryzowane przez Napstera. W końcu powstała w istocie nowa sieć P2P OpenNap, bazująca na protokole Napstera. Innym przykładem centralnego serwisu P2P jest iMesh, który w toku procesów sądowych w USA także został zmuszony do dokonania zmian struktury i przekształcił się częściowo w serwis komercyjny.

Przykłady systemów zdecentralizowanych to Gnutella, występująca pierwotnie pod nazwą Nullsoft (freeelance project) oraz Freenet, w którym udostępniono użytkownikom wiele platform wymiany danych (filesharing). Freenet wyróżnia się szczególną dbałością o to, by dane nie mogły być łatwo usuwane z sieci, a także wysokim stopniem bezpieczeństwa i ochrony prywatności.

Do systemów hybrydowych należy zaliczyć system Fasttrack, który stał się bazą dla działalności KaZaA, KaZaa Lite i Grokster. Cechują się one występowaniem tzw. wyróżnionych komputerów (super-nodes), do których są kierowane zapytania. Innym przykładem jest eDonkey. Najnowsze systemy to: Bit-Torrent, ML Donkey&Shareaza i Mute. Są to w gruncie rzeczy platformy dystrybucyjne, których użytkownicy mogą w krótkim czasie przekazywać sobie duże ilości danych. Przeszukują one także często inne sieci P2P (ML Donkey). Pojawiła się w nich metoda anonimizacji uczestników, by chronić ich przed zarzutami prawnymi (Mute) - tzn. dane nie płyną wprost między użytkownikami, lecz są przekierowywane na inne (wirtualne) adresy, między którymi dopiero ma miejsce kontakt. Stosowane są procedury kryptograficzne.

Rozwój serwisów P2P, wbrew początkowym obawom, nie zepsuł rynku muzycznego - wiele badań wskazuje raczej na korzyści, które odnoszą twórcy i studia nagrań. Ludzie nadal bowiem kupują płyty, a także coraz częściej korzystają z serwisów komercyjnych P2P, w których za niewielką opłatą można legalnie pobrać utwory.

Synteza

Prawa wyłączne stanowią najlepszy bodziec do efektywnej alokacji zasobów oraz do zarządzania aktywami niematerialnymi. Należy przyjąć racjonalne podejście do ochrony praw do rzeczy materialnych oraz praw do dóbr niematerialnych. W literaturze podkreśla się wysokie koszty i wątpliwą skuteczność ochrony praw własności intelektualnej, w tym własności przemysłowej. Nadchodzi czas zastosowania narzędzi ekonomicznej analizy prawa również do praw własności intelektualnej, m.in. prawa autorskiego. Prawa te, tradycyjnie utożsamiane z kulturą i sztuką, wchodzą w sferę zainteresowania przedsiębiorstw. Firmy i społeczność internetowa wytwarzają nierzadko coś w rodzaju równoległego systemu regulacyjnego, znajdującego oparcie w ogólnym prawie kontraktów, np. zasady licencjonowania przeciwstawiające się nadmiernej, restrykcyjnej ochronie tych praw. A zatem w ramach prawa umów mogą powstać reguły gry rynkowej o dość szerokim zasięgu, korygujące lub zastępujące prawo nie w pełni dostosowane do realiów (Order despite Law). Przykłady to przede wszystkim: Open Source Software, Creative Commons, ale także "poole patentowe", które rozsadzają system prawa konkurencji (zakaz kartelowy) - sztywny i daleki od realiów rynku innowacji, oprogramowania i technologii ICT. Zjawiska te można traktować jako funkcjonalne ekwiwalenty regulacji. Należy postulować uzależnienie uznania celowości ochrony treści tworzonych przez użytkowników od zakresu i metody korzystania z utworów będących pod ochroną, a także od charakteru tych utworów. W internecie powstaje przeciwwaga dla tradycyjnych kanałów dystrybucji informacji. Partycypacja indywidualnych użytkowników, pełniących role nie tylko autorów, ale też wydawców czy producentów, doprowadziła do stworzenia pojęcia Web 2.0 (user generated content).

Bibliografia

  • J. Eisfeld, L. Pahlow, Grundlagen und Grundfragen des geistigen Eigentums, Tübingen 2008.
  • K. Gienas, Systemy Digital Rights Management w świetle prawa autorskiego, Wolters Kluwer, Warszawa 2008.
  • W.M. Landes, R.A. Posner, The Economic Structure of Intellectual Property Law, Harvard University Press, Cambridge-Massachusets 2003.
  • G.K. Leonard, L.J. Stiroh (red.), Economic Approaches to Intellectual Property. Policy, Litigation and Management, Nera Economic Consulting, Nowy Jork 2005.
  • R.P. Merges (red.), Economics of Intellectual Property Law, Series: Economic Approaches to Law, Edward Edgar Publishing Ltd., Northhampton-Massachusets 2007.
  • R.P. Merges, P.S. Menell, M.A. Lemley, Intellectual Property in the New Technological Age, Third Edition, Aspen Publishers, Nowy Jork 2003.
  • H. Ramberg, Internet Marketplaces. The Law of Auctions and Exchanges Online, Oxford University Press, 2002.
  • J. Rosenoer, Cyber Law. The Law of the Internet, Springer Verlag, Nowy Jork 1997.
  • G. Smith, Internet Law and Regulation, Sweet&Maxwell, Londyn 2002.
  • R.H. Weber, Regulatory Models for the Online Word, Schulthess, Zürich 2002.

INFORMACJE O AUTORACH

WŁODZIMIERZ SZPRINGER

Autor jest profesorem Szkoły Głównej Handlowej (Kolegium Nauk o Przedsiębiorstwie) oraz Uniwersytetu Warszawskiego (Wydział Zarządzania), wykładowcą i ekspertem z zakresu bankowości i prawa bankowego, polityki i prawa konkurencji, prawnych i ekonomicznych zagadnień e-biznesu, prawa nowych technologii oraz ekonomicznej analizy prawa i oceny skutków regulacji. Ponadto jest członkiem Consumer Finance Network (European Credit Research Institute), European Network for Better Regulation, European Consumer Debt Network, European Coalition for Responsible Credit oraz Expert Group "Customer Mobility in Relation to Bank Accounts" przy DG Internal Market & Services. Na swoim koncie ma ponad 200 publikacji naukowych i licznych ekspertyz dla naczelnych organów państwa.

 

Komentarze

Nie ma jeszcze komentarzy do tego artykułu.

dodaj komentarz dodaj komentarz

Przypisy

1 Por. R.H. Weber, Regulatory Models for the Online Word, Schulthess, Zürich 2002, s. 56; H. Ramberg, Internet Marketplaces. The Law of Auctions and Exchanges Online, Oxford University Press, 2002, s. 11 i inne.

2 Chodzi tutaj o wskazanie samej możliwości skutecznej kontroli. Zakazy np. dotyczące treści pornograficznych czy nazistowskich, w wielu krajach nie obowiązują, gdyż są objęte prawem do swobody wypowiedzi (np. w USA).

3 Por. G. Smith, Internet Law and Regulation. Third Edition, Sweet&Maxwell, Londyn, 2002; J. Rosenoer, Cyber Law. The Law of the Internet, Springer Verlag, Nowy Jork 1997; P. Bräutigam, A. Leupold, Online Handel. Betriebswirtschaftliche und rechtliche Grundlagen, C.H. Beck,

4 Por. L.J. Stiroh, Uncertainty in the Economics of Knowledge and Information; J.H. Johnson, The Economics of Patent Policy: a Review of Recent Empirical Studies, [w:] Economic Approaches to Intellectual Property. Policy, Litigation and Management, Nera Economic Consulting, Nowy Jork 2005.

5 Por. S. Bechtold, Zur rechtsökonomischen Analyse im Immaterialgüterrecht, "Gewerblicher Rechtsschutz und Urheberrecht" 2008, nr 6, s. 484 i inne.

6 Por. W.M. Landes, R.A. Posner, The Economic Structure of Intellectual Property Law, Harvard University Press, Cambridge-Massachusets 2003, s.18; Intellectual Property in the New Technological Age, Third Edition, Aspen Publishers, Nowy Jork 2003, s. 21 i inne; por. też: R.P. Merges (red.), Economics of Intellectual Property Law, Series: Economic Approaches to Law, Edward Edgar Publishing Ltd., Northhampton-Massachusets 2007.

7 Nowe formy licencji w sferze praw autorskich, umożliwiające szersze korzystanie z treści przez użytkowników i słabszą, lecz mimo to satysfakcjonującą ochronę tych praw.

8 Formy porozumień między właścicielami praw własności przemysłowej np. o dzieleniu się patentami.

9 Por. R. Seldmaier, Die Patentierbarkeit von Computerprogrammen und ihre Folgeprobleme, Herbert Utz Verlag, München 2004, s. 30 i inne.

10 Por. K. Gienas, Prawo a Web 2.0, www.networld.pl .

11 Por. K. Gienas, Systemy Digital Rights Management w świetle prawa autorskiego, Wolters Kluwer, Warszawa, 2008, G. Dreyer, Urheberrechtliche Problembereiche des Digital Rights Managements, [w:] L. Pahlow, J. Eisfeld, Grundlagen und Grundfragen des geistigen Eigentums, Tübingen 2008, s. 221 i inne; H. Arlt, Digital Rights Management Systeme. Der Einsatz technischer Maßnahmen zur Schutz der digitalen Inhalte; C.H. Beck, 2006, s. 9 i inne; S. Guntrum, Zur Zukunft der Privatkopie in der Informationsgesellschaft, Verlag Dr. Kovač, Hamburg 2007, s. 207 i inne.

12 6th International Workshop for Technical, Economic and Legal Aspects of Business Models for Virtual Goods incorporating the 4th International ODRL Workshop, Poznań 16-18.X.2008, www.VirtualGoods.or... ; Ch. Geiger, Die Alternativen zum Schutz durch das Urheberrecht, [w:] R.M. Hilty, H. Geiger, Impulse für eine europäische Harmonisierung des Urheberrechts. Urheberrecht im deutsch-französichen Dialog, Springer Verlag, Wiedeń 2007.

13 Por. S.H. Kwok, C.C. Yang, K.Y. Tam, Intellectual Property Protection for Electronic Commerce Applications, "Journal of Electronic Commerce Research" 2004, t. 5, nr 1, s. 1 i inne.

14 5th International Workshop for Technical, Economic and Legal Aspects of Business Models for Virtual Goods incorporating the 3rd International ODRL Workshop, 11-13.X.2007 Koblenz, Germany, www.VirtualGoods.or... , [22.11.2008].

15 Por. G. Brinkel, Filesharing, Mohr Siebeck, Tübingen 2006, s.13 i inne; M. Buchter, Die Zulässigkeit des P&P file sharings im internationalen Vergleich unter besonderer Berücksichtigung der Praxis US-amerikanischer Gerichte, [w:] Medienherausforderungen der Zukunft. Seminar zum nationalen und internationalen Medienrecht, Peter Lang Verlag, Frankfurt 2008, s. 235 i inne.

16 Instant Messaging to bezpośrednie porozumiewanie się w sieci w czasie rzeczywistym, przy czym, dzięki specjalnemu oprogramowaniu, użytkownik wie, kto z pozostałych uczestników jest w danej chwili online.

17 Grid Computing to skoordynowane użytkowanie rozproszonych geograficznie mocy obliczeniowych lub zasobów pamięci komputerów.