AAA

Strategia dobrowolnego dzielenia się aktywami niematerialnymi na rynkach technologii ICT - nowe wyzwanie dla regulacji?

Włodzimierz Szpringer

Celem artykułu jest przedstawienie problemu dzielenia się aktywami niematerialnymi przez przedsiębiorstwa posiadające pozycję dominującą na rynkach nowych technologii (np. firmę Microsoft na rynku software'u komputerowego). Wydaje się, że metody udostępniania tych aktywów wymagają nowego spojrzenia, a także syntezy dwóch trendów: odgórnych wymuszeń ze strony państwa, kierowanych przede wszystkim do dominantów, by dzielili się informacją i wiedzą w sytuacjach, kiedy ich brak utrudnia lub uniemożliwia innym firmom prowadzenie działalności gospodarczej (essential facility), a także oddolnego dzielenia się aktywami z własnej inicjatywy przez przedsiębiorstwo dysponujące standardem rynkowym, które dostrzega w tej strategii długofalowe korzyści, przede wszystkim związane z rozwojem usług na platformie budowanej wokół łańcucha wartości bazującego na określonym standardzie rynkowym i związanym z nim efektem sieciowym. Najlepszym przykładem tych tendencji jest historia rynkowa firmy Microsoft.

Problem nieodpłatnego, dobrowolnego udostępniania aktywów rysuje się jako wyraz dwóch, pozornie sprzecznych tendencji:
  • Postulatów kierowanych przede wszystkim do dominantów, by dzielili się informacją i wiedzą w sytuacjach, kiedy ich brak utrudnia lub uniemożliwia innym firmom prowadzenie działalności gospodarczej (essential facility). Postulaty te są realizowane w drodze decyzji regulacyjnych organów ochrony konkurencji (UOKiK) lub organów regulacji sektorowych (UKE) - dzięki konkurencji imitacyjnej lub innowacyjnej, gdy innej firmie powiedzie się przełamanie standardu rynkowego. Próby wymuszania dzielenia się poufną wiedzą mają długą historię na rynkach technologii ICT i pozostają bardzo dyskusyjne (np. próba sądowego wymuszenia przez trzech kooperantów IBM: Compaq, Digital i Intergraph podzielenia się z nimi przez IBM najnowszymi osiągnięciami technologii, zdaniem sądu nie powinno się wszelako ingerować we własność intelektualną i przemysłową podmiotu, który własnym wysiłkiem doszedł do przodujących rozwiązań w danej dziedzinie. Pogląd ten następnie ewoluował w kierunku coraz szerszej celowości i dopuszczalności wymuszania na dominancie dzielenia się poufną wiedzą, np. udostępniania interfejsów oprogramowania i kodu źródłowego Microsoft Windows).
  • Udostępniania aktywów z własnej inicjatywy firmy dysponującej standardem rynkowym, która dostrzega w tej strategii długofalowe korzyści, przede wszystkim związane z rozwojem usług na platformie budowanej w łańcuchu wartości wokół określonego standardu rynkowego oraz przyciąganiem - dzięki efektowi sieciowemu - kooperantów, pośredników i końcowych użytkowników. To wyjście naprzeciw postulatom organów regulacyjnych oraz konkurentów, pozornie dobre dla konsumentów, budzi jednak nowe wątpliwości i zastrzeżenia, np. z perspektywy konkurencji. Może powstać sytuacja, że udostępnienie aktywów niematerialnych - pozornie korzystne z perspektywy konsumenta - wywrze odstraszający wpływ na nowe wejścia na dany rynek, co uchroni dominujące podmioty przed potencjalnymi konkurentami. Dominant, który przekazuje swoje aktywa na rzecz platformy technologicznej, może w istocie wypierać samodzielnych dostawców z rynku. Historia dyskusji na ten temat jest zresztą długa - można w tym miejscu przypomnieć zarzuty nieuczciwej konkurencji, które pojawiły się niegdyś wobec wydawców bezpłatnej prasy.
Jednym z narzędzi realizacji strategii udostępniania aktywów niematerialnych mogą być transakcje wiązane, których ocena bywa ambiwalentna (z jednej strony kooperanci czy konsumenci dostają produkt pakietowy, który odpowiada ich życzeniom, z drugiej strony mogą tym samym zostać odcięci od innowacji, które jeszcze lepiej zaspokajałyby ich potrzeby, czyli zawężają swoje pole wyboru w przyszłości).

Otwarte innowacje (kooperacja a konkurencja)

W ramach ekonomii rozwoju podkreśla się dynamiczny charakter wiedzy, której ujawnianie i udostępnianie przyśpiesza powstawanie innowacji. Kolejne fazy rozwoju wiedzy następują po sobie i nawiązują do poprzednich. Dostęp do dorobku światowego w danej dziedzinie jest zatem bardzo ważny dla rozwoju. W.M. Landes i R.A. Posner akcentują bodźcowe znaczenie ochrony praw wyłącznych (np. patentowych czy autorskich), wszelako obecnie często prezentuje się tezę o przecenianiu roli tych praw1.

Prawa wyłączne są używane nie tylko w konkurencji innowacyjnej, lecz także - co wymaga podkreślenia na gruncie prawa konkurencji - do tworzenia strategicznych barier wejścia na dany rynek przez konkurentów. Można w tym kontekście wskazać na znane prawu konkurencji, prawu patentowemu czy prawu farmaceutycznemu instytucje służące ograniczaniu praw wyłącznych - w interesie publicznym (por. doktryna essential facility, przymusowe licencje patentowe, rozluźnienie reżimu ochrony w celu ułatwienia produkcji leków generycznych).

W normalnym toku działalności gospodarczej patentuje się wynalazki po to, by ich komercjalizacja przynosiła zyski. Na rynkach technologii ICT o znacznej roli standardów rynkowych (de facto standards) występuje natomiast od pewnego czasu inne zjawisko. Model biznesowy polega na gromadzeniu szerokiej wiązki kluczowych patentów określających dany standard, a następnie czerpaniu korzyści wyłącznie z opłat licencyjnych, bez zamiaru oferowania klientom dóbr lub usług. Podmioty stosujące taki model, określane mianem Non-Practising Entities (NPE) najczęściej nie należą do zrzeszeń standaryzacyjnych, a więc nie muszą się stosować do regulaminów zalecających udostępnianie innowacji na warunkach uczciwych, rozsądnych i niedyskryminacyjnych (Fair, reasonable, and non-discriminatory terms - FRAND2).

Kontrolą zachowań rynkowych tych podmiotów zajmują się natomiast organy antymonopolowe. Zawyżanie opłat licencyjnych przez takie firmy wynika także z faktu, że często nie wytwarzają one dóbr lub usług, nie są więc zaangażowane w badania B+R dotyczące przyszłych rozwiązań i w związku z tym nie bazują na żądaniu licencji wzajemnych, co mogłoby wpływać na obniżenie opłat licencyjnych. Porozumienia zawierane wokół standardu rynkowego eliminują lub osłabiają konkurencję między technologiami (inter-technology competition), występuje więc szczególna celowość przeprowadzania kontroli zewnętrznej przestrzegania warunków FRAND3.

Głównym celem polityki ochrony praw własności intelektualnej i przemysłowej (Intellectual Property Rights - IPR) jest zwiększenie wartości inwestycji w działalności innowacyjnej. W rzeczywistości ochrona IPR służy wielu firmom do realizacji zamierzeń odwrotnych niż zakładane przez politykę innowacyjną. W szczególności gąszcz patentów4 (patent thicket) służy do utrudniania innym podmiotom wprowadzania ulepszeń korzystnych z punktu widzenia użytkowników lub do uniemożliwienia kupna licencji po niższej cenie od konkurentów o słabszej pozycji rynkowej5.

Dlatego właśnie dotychczasowy model zamkniętych innowacji (closed innovation model), który polega na pełnej kontroli firmy nad IPR, ewoluuje w kierunku modelu otwartych innowacji (distributed/open innovation model). Rozwija się nowe podejście do kwestii zysków z działalności innowacyjnej (free revealing), w którym informacja i wiedza nabierają cech dobra publicznego. Dyfuzja wiedzy zapewnia wyższe zyski niż w warunkach monopolu IPR - ze względu na pozytywne efekty sieciowe. Szczególna rola przypada w tej kwestii wiodącym użytkownikom (lead users), którzy nie działają tylko dla zysku (non-market peer-to-peer diffusion of innnovation, vollunteer-based or common-based projects)6.

Tworzenie produktów „nasyconych” wymaga wprowadzenia doradztwa i szkoleń oraz serwisu dla użytkowników, z czym wiążą się liczne nowe usługi dodane - mamy do czynienia z serwicyzacją w gospodarce, podejściem pakietowym (cluster approach), sprzedażą krzyżową (cross-selling), transakcjami wiązanymi lub wyłącznymi (bundling vs tying, exclusive dealing). Równocześnie środowisko Web 2.0 i serwisy społecznościowe, nie w pełni poddane kontroli, zwiększają rangę elementów kooperacyjnych, współpracy między konkurentami, między firmami a ich klientami oraz konsumentami, którzy w istocie stają się często współautorami adresowanych do nich produktów. Proces innowacyjny staje się procesem w znacznej mierze uspołecznionym, a informacja i wiedza - w coraz większym stopniu uzyskują cechy dobra publicznego7.

W prawie i w orzecznictwie powstaje jednak dylemat - co, kiedy i w jakim stopniu podlega ochronie, np. czy gry komputerowe to dzieła literackie czy raczej oprogramowanie? Podobny problem dotyczy pytania, czy licencja Creative Commons może mieć zastosowanie np. w dziedzinie projektowania wzorów zdobniczych. Powstają bowiem platformy, które oferują projekty (blueprints) oraz zachęcają do ich rozwijania i twórczego doskonalenia, a następnie dzielenia się własnymi pomysłami z innymi użytkownikami. Istnieją w tej mierze wątpliwości wynikające z zakresu i czasu ochrony (w zależności od tego, czy projekt został opatentowany, czy nie), rodzaju stosowanego oprogramowania czy możliwości komercjalizacji8.

Pozostaje też problem zagrożenia dla host providerów (dostawców usług), którzy powinni mieć przywilej „bezpiecznych portów” (safe harbours), o ile korzystają w swoich serwisach z najnowszych osiągnięć technologii filtrujących kontent nielegalnego pochodzenia9. Prawo krajowe nie może wszelako narzucać dostawcy internetu zakładania na własny koszt nieograniczonego co do rodzaju, zakresu i czasu używania prewencyjnego systemu filtrującego kontent. Należy zachować równowagę między ochroną praw autorskich, a wolnością gospodarczą dostawcy, ochroną prywatności użytkowników a ich prawem do swobody wypowiedzi10.

Dla wielu ludzi internetowe sieci społecznościowe stały się ważną częścią codziennego życia. Skoro ludzie umieszczają coraz więcej danych w serwisach społecznościowych, firmy interesują się nimi jako ważnym źródłem wiedzy. W obliczu tego zjawiska wyłania się nie tylko kwestia ochrony prywatności, ale pojawia się też często pytanie o granice ochrony praw autorskich czy innych praw nabytych w uspołecznionym procesie opracowywania jakiegoś tematu, zadania czy projektu11.

W gospodarce opartej na wiedzy standaryzacja, interoperacyjność urządzeń i kompatybilność produktów są kluczowe dla promocji innowacji i konkurencji. Standardy są tworzone przez organizacje standaryzacyjne złożone z podmiotów danego sektora lub powstają samorzutnie na rynku (standardy de facto). Mają one szczególne znaczenie w sieci, wzmacniają bowiem efekt sieciowy (Microsoft, Google). Równocześnie stanowią podstawę infrastruktury współdziałania, bez której efektywne i bezpieczne prowadzenie biznesu nie byłoby możliwe (systemy płatnicze, komunikacja elektroniczna, Cloud Computing)12. Należy podkreślić zbiorowy, kolektywny charakter innowacji, rosnącą rolę kooperacji w łańcuchu wartości sektora high-tech, także między konkurentami, globalizację konkurencji, konwergencję mediów elektronicznych i cyfryzację kontentu13.

Prawa własności intelektualnej i przemysłowej (IPR) - to prawa wyłączne, które zachęcają do innowacji, inwestycji i podejmowania ryzyka. IPR nie powinny być traktowane jako instrument ochrony ich właścicieli przez konkurencją, lecz jako zachęta dla innych firm do podjęcia wyzwań konkurencji. Organy ochrony konkurencji, badając problemy ustalania standardów, powinny przykładać dużą wagę do perspektywy konkurencji dynamicznej, innowacji dających szansę na zmiany rynkowe oraz poprawę dobrobytu konsumentów w długim okresie14.

Wiązanie produktów - między wymuszonym a dobrowolnym udostępnianiem aktywów niematerialnych

Zagadnienie nadużywania pozycji dominującej przez przedsiębiorstwa jest szczególnie istotne na rynku dóbr niematerialnych. Dostęp do tych dóbr dla konkurentów lub kooperantów jest nie tylko warunkiem koniecznym rozwoju technologicznego, ale ma także istotne znaczenie dla dostępności na rynku określonych produktów, np. leków. Zjawisko nadużywania praw na dobrach niematerialnych dostrzegają liczne ustawodawstwa, jednak nie wszystkie rodzaje dóbr niematerialnych zostały potraktowane w tym zakresie jednakowo. Istotne znaczenie mają w tej mierze licencje przymusowe oraz doktryna essential facility15.

O ile np. prawo patentowe posiada swoje specyficzne regulacje dotyczące nadużywania patentu, o tyle w przypadku prawa autorskiego konstrukcja licencji przymusowej jest tworem orzecznictwa. W tym zaś zakresie podstawowe znacznie mają orzeczenia Europejskiego Trybunału Sprawiedliwości (ETS). Na uwagę zasługuje w szczególności orzeczenie ETS w sprawie IMS Health z 29 kwietnia 2004 roku, które potwierdza możliwość nadużywania praw autorskich i ich przymusowego licencjonowania16.

W dobie globalizacji rozwijają się coraz bardziej kompleksowe technologie, w których dużą rolę odgrywają standardy i organizacje standaryzacyjne. Organizacje te powinny szczególnie zwracać uwagę na sytuację, w której określona technologia staje się standardem, dodatkowo zapisanym w postaci patentu. Kluczowym problemem jest kontrola udostępniania licencji z takich patentów na warunkach uczciwych, rozsądnych i niedyskryminacyjnych (fair, reasonable and non-discriminatory - FRAND)17.

W literaturze ekonomicznej omówiono złożone procesy budowania przez Microsoft pozycji rynkowej, a nie tylko wyjęty z kontekstu fakt powiązania przeglądarki Internet Explorer z Microsoft Windows. Jest to obszerna grupa działań, która nie była przedmiotem analiz antymonopolowych, głównie ze względu na brak jasnych, niebudzących wątpliwości regulacji prawnych. Powiązanie tych produktów to tylko jeden aspekt sprawy. Istnieje wiele sposobów wpływania na rynek poprzez tzw. politykę międzyorganizacyjną (interorganizational politics)18.

Teoria zarządzania w sektorze IT sugeruje oferowanie klientom zintegrowanych, kompleksowych rozwiązań. Przyszły rynek oprogramowania można sobie bowiem wyobrazić jako część integralnego rynku telekomunikacyjno-komputerowo-medialnego. Powstaje zatem pytanie, w jakiej mierze umowa licencyjna wymaga korekty ze względu na nowe formy użytkowania oprogramowania. Umowa powinna być wszelako tak konstruowana, by uwzględniać szybki, dynamiczny postęp technologii i np. umożliwiać korzystanie z niego w różny sposób, włącznie z outsourcingiem czy Cloud Computing19.

Producenci oprogramowania powinni poszukiwać możliwości dywersyfikacji działalności i wchodzenia na pokrewne rynki. Szczególne znaczenie mają usługi w sieci oraz multimedia. W odpowiedzi na konwergencję rynków oraz technologii producenci oprogramowania wręcz powinni nieustannie poszukiwać „kreatywnych kombinacji” i rozwijać funkcje dotychczas oferowanych programów (co wyraża się również przyrostem długości kodu źródłowego).

Oprócz efektów sieciowych, należy przypomnieć pojęcie dóbr systemowych, kiedy dany produkt jest wykorzystywany w powiązaniu z innymi, komplementarnymi rozwiązaniami i często dopiero skojarzenie kilku dóbr lub usług pozwala na ich skuteczne stosowanie. Teoria ekonomii interpretuje dobra i usługi będące przedmiotem obrotu jako „zestawy cech” (bundles of features), z których wiele może być oferowanych oddzielnie, chociaż nie jest. Nawyki konsumentów wpływają na oferty rynkowe i trudno sobie wyobrazić sprzedaż długopisów bez wkładów, samochodów bez opon czy urządzeń elektronicznych bez zasilaczy.

Firmy informatyczne muszą podjąć strategiczną decyzję, czy chcą dążyć do tworzenia i promowania własnych platform (a tym samym - przyciągania mniejszych partnerów, dodających wartość), czy wolą mniej odpowiedzialną rolę partnera wspierającego dostawcę platformy. Platformy informatyczne stanowią nie lada wyzwanie dla ekonomistów i prawników. Sieć aliansów może stać się ukrytym, złożonym systemem blokowania oraz podporządkowywania sobie działań innych podmiotów. Microsoft chętnie korzystał z obcych, otwartych standardów technologicznych i modyfikował je w taki sposób, który ograniczał ich otwartość20.

Należy pamiętać, że nie wszystkie związki technologiczne między produktami będą istotne dla użytkowników oprogramowania. Niekiedy te powiązania, rozstrzygające o kompatybilności, mogą być przez dominanta wprowadzane tylko po to, by uzasadnić konieczność zakupu całego pakietu, a tym samym odciągnąć go od produktów konkurentów. W ten sposób efekt sieciowy ulega wzmocnieniu (customer lock-in), a konkurencja - dalszemu ograniczeniu. Ekonomiści używają w odniesieniu do Microsoftu pojęcia „aplikacyjnej bariery wejścia” (applications barrier to entry), bowiem rosnąca popularność standardów i aplikacji ogranicza możliwości udziału rywali w rynku. Jest to więc ciekawe określenie pewnego ważnego aspektu efektu sieciowego.

Tradycyjne analizy przyczyn i skutków wiązania dotyczyły przypadków, gdy łączenie produktów było metodą promocji sprzedaży mało popularnego produktu. W odniesieniu do oprogramowania częściej mamy do czynienia z przejawem innowacji produktowej i wzbogacania funkcjonalności dotychczasowych produktów. Trudno te funkcjonalności jednoznacznie przyporządkować określonej grupie czy segmentowi rynku. Ze względu na dynamikę rynku i liczne innowacje produkty związane z oprogramowaniem podlegają częstym modyfikacjom, w naturalny sposób podążając za rozwojem preferencji klientów.

Nauki o zarządzaniu wprowadzają pojęcie „technologii zaburzających” (disruptive technologies), początkowo niedoskonałych, niepotrafiących zaspokoić potrzeb kluczowych odbiorców dotychczasowych rozwiązań, wszelako znajdujących nisze rynkowe dzięki specyfice oferowanych funkcji. Przykładem takiej technologii jest oprogramowanie dostępne za pośrednictwem internetu i niewymagające instalacji na komputerze użytkownika21. Może to być jeden z czynników dalszego osłabiania pozycji dominanta - Microsoftu. Innym czynnikiem jest oferowanie darmowego oprogramowania i uzyskiwanie przychodów z innych źródeł (reklam).

Implikacje orzeczenia w sprawie Microsoft dla oceny sprzedaży wiązanej są następujące:

  • sprzedaż wiązana (pakietowa) nie stanowi praktyki nadużywania pozycji dominującej w rozumieniu art. 82 TWE (obecnie art. 102 TFUE22), sam fakt związania dóbr lub usług nie ma jeszcze negatywnego wpływu na konkurencję;
  • prawo konkurencji w zakresie umów wiązanych skupia się na strukturze rynku, a nie na czerpaniu przez firmę monopolistycznych zysków, art. 82 TWE (obecnie art. 102 TFUE) obejmuje nie tylko zapobieganie nadużywaniu pozycji dominującej, ale też jej umacnianie przez korzystanie z narzędzi, które nie są oparte na konkurencji merytorycznej (competition on the merits);
  • do sformułowania zarzutu stosowania transakcji wiązanych wystarczy wskazanie, że na rynku działają niezależni przedsiębiorcy, którzy specjalizują się we wprowadzaniu do obrotu produktu związanego, Komisja i ETS wykazują tendencję do wydzielania z produktów złożonych odrębnych produktów, należących do różnych rynków właściwych23.
Charakter produktu - zwyczaj handlowy - i przeznaczenie gospodarcze (commercial usage) nie są wystarczające dla oceny wprowadzenia do obrotu nowego produktu złożonego z dotychczas odrębnych produktów. Ważna jest kwestia, czy nowy produkt stanowi z perspektywy konsumenta istotne novum w porównaniu do dotychczasowej oferty rynkowej. Ewolucja rynku oprogramowania polega m.in. na uzupełnianiu i wzbogacaniu systemu operacyjnego o nowe funkcje. Taka jest właśnie istota wielu innowacji w sektorze IT, która prowadzi do sukcesu rynkowego i pokonania rywali.

W świetle orzeczenia w sprawie Microsoft nadal dyskusyjne jest, w jakim stopniu przedsiębiorcy dominujący mogą sobie pozwalać na udoskonalanie swoich produktów dzięki rozbudowie w nich nowych funkcjonalności. Sektor IT charakteryzuje się wysokimi kosztami początkowymi wytworzenia nowego produktu. Niskie koszty krańcowe zachęcają do stosowania wiązania, by wykorzystać elementy kodu źródłowego zapewniające kompatybilność, a także ekonomię skali, korzyści zakresu i efekty uczenia się.

Ostatnio rysuje się jednak „światełko w tunelu” - jest nim koncepcja more economic approach24, która znalazła wyraz w licznych decyzjach organów antymonopolowych. Cechą wielu decyzji było odejście od rozstrzygającego znaczenia cech struktury rynku (udziałów rynkowych) na rzecz innych czynników, np. możliwości obniżki cen z korzyścią dla klientów. Zachowania, które kiedyś były traktowane jako jednoznacznie negatywne, dzisiaj nie powinny być tak oceniane (oceny powinny być bardziej stonowane, w zależności od kontekstu sytuacyjnego czy cech rozwoju rynku).

Przykłady to: coraz mniejsze znaczenie udziałów rynkowych, nowe podejście do związania ceną odsprzedaży resale price maintenance i do związań pionowych, transakcji wiązanych, dopuszczalna strategia obronna dominantów (defencing leveraging) jako nowa doktryna łagodnego podejścia do oceny nadużywania dominacji rynkowej na rynkach nowych technologii, która pozwala dominantom na wprowadzanie strategii obronnych, gdy zagrożona jest ich kluczowa działalność na rynku (core business). Pewne nadzieje można zatem wiązać z faktem, że coraz częściej organy antymonopolowe uznają argumenty na rzecz obrony kluczowych interesów dominantów na rynkach technologii ICT, bo najczęściej to właśnie oni są lokomotywą postępu technologicznego.

Z krytyką spotykają się decyzje regulacyjne (np. Microsoft Media Player25), które w istocie zmuszają dominantów do zachowań rynkowych sprzecznych z oczekiwaniami ich klientów, z których mogą się cieszyć tylko potężni konkurenci Microsoftu (np. Real Networks czy Sun Microsystems). Coraz częściej akcentuje się tezę, że rolą prawa konkurencji nie jest chronienie konkurentów - zamiast konkurencji czy przesuwania aktywów niematerialnych od ich właścicieli, którzy zapracowali na nie własną kreatywnością i innowacyjnością - do nieudaczników. Nie stymuluje to konkurencji dynamicznej oraz nie powiększa dobrobytu konsumentów w długim okresie.

Dobrowolne udostępnianie aktywów niematerialnych - nowa strategia budowania pozycji rynkowej?

Dobrowolne udostępnianie aktywów niematerialnych - często niezwykle cennych - jest dość szeroko rozpowszechnione na rynkach technologii ICT. Przemawia za tym określone poczucie racjonalności. Dając dostęp do podstawowych technologii, posiadacz platformy zapobiega faktycznemu „wywłaszczeniu” samego siebie z tych aktywów, np. w drodze decyzji regulacyjnych lub konkurencji imitacyjnej, a równocześnie stymuluje inwestycje kooperantów, pośredników i użytkowników końcowych, które pomnażają wartość danej platformy internetowej.

Jednak aby generować przychody, które pokrywają koszty rozwoju i utrzymania platformy, posiadacz musi regulować dostęp do innych dóbr lub usług w ramach pewnej ich wiązki oferowanej konsumentom. Odwrotna proporcja (trade-off) między swobodnym dostępem - dzięki rezygnacji z praw wyłącznych IPR (praw własności intelektualnej i przemysłowej) i dzieleniu się nimi z konkurentami (w celu ułatwienia rozwoju platformy) - a regulacją dostępu do niektórych dóbr lub usług (w celu pokrycia kosztów jej funkcjonowania) - prowadzi do konwergencji koncepcji innowacji otwartych i zamkniętych26.

Wzorce organizacyjne na niektórych rynkach oprogramowania i systemów operacyjnych potwierdzają tę hipotezę. W szczególności, w przeciwieństwie do charakterystyki standardów de facto w literaturze prawniczej, wiodące projekty open source są tworzone i zarządzane przez potężnych biznesowych sponsorów, a firmy komercyjne z kolei tworzą konsorcja typu non-profit lub umowy kooperacyjne, których celem jest wkomponowanie projektów open source w strategie licencyjne, np. zmierzające do rozwoju systemów operacyjnych dla smartfonów27.

Wiele innych firm z rynku technologii ITC regularnie udostępnia wartościowe innowacje konkurentom i użytkownikom nieodpłatnie lub poniżej kosztów. Dotyczy to również, co ciekawe, podmiotów posiadających dominującą pozycję rynkową, które dotychczas poniosły wysokie wydatki na budowę infrastruktury określonych platform sieciowych. Nie sprawdzają się zatem obiegowe opinie, że dominanci zawsze i wszędzie dążą do zachowania maksymalnej technologicznej i prawnej kontroli nad kluczowymi aktywami. Nie wynika to tylko z wysokich kosztów dochodzenia praw, np. sporów sądowych. Biorąc pod uwagę punkt wyjścia w zakresie możliwej kontroli, dominanci mogą wywierać wpływ i wymuszać dostosowania na niższych poziomach rynku. Dotyczy to w szczególności rynków o pewnej liczbie pośredników, którzy kojarzą wkład (input - informacje, wiedza, kontent) z potrzebami i preferencjami użytkowników i konsumentów. Występują w tej mierze efekty sieciowe: im więcej użytkowników ma platforma, tym ma wyższą wartość, a równocześnie coraz bardziej znaczące stają się koszty przestawienia pojedynczego użytkownika - inaczej mówiąc, zmiany dostawcy (switching costs). Wszelako władza rynkowa dostawcy (host providera) względem użytkowników jest ograniczona, zwłaszcza z perspektywy dynamicznej, długookresowej.

Tak długo, jak użytkownicy mogą przewidzieć efekt zamknięcia rynku (lock-in) - jako prawdopodobny - host provider nie jest w stanie indukować inwestycji pośredników i użytkowników, które są wymagane dla osiągnięcia przez platformę efektu skali. Stąd dylematem dostawcy jest przekonanie użytkowników, że platforma osiągnie właściwą skalę działania, a inwestycje użytkowników nie zostaną zmarnowane. Potrzebne są tutaj czytelne sygnały ze strony platformy, które wzmacniają zaufanie użytkowników. W tym ujęciu strategia dobrowolnego udostępniania aktywów jawi się jako racjonalna, chociaż nie pozbawiona ryzyka.

Jeżeli host provider zakłada określone skojarzenie kontraktowych, organizacyjnych i „ideologicznych” instrumentów, które ograniczają następnie jego zdolność regulowania dostępu do platformy, w ten sposób popełnia w pewnym sensie błąd, działa przeciwko własnej przyszłości. W skrajnym przypadku może on mianowicie zbudować platformę, a następnie utracić nad nią wszelką kontrolę. Pozostaje więc problem umownego czy statutowego zachowania przymusu (obowiązku) renegocjacji warunków regulujących dostęp do platformy - jako rozwiązania awaryjnego. Problem ten dotyczy zwłaszcza rynków technologii ICT.

Ale rozwiązanie polegające na szerszym udostępnianiu aktywów ma jeden słaby punkt: może być tak, że platforma nie wygeneruje dostatecznie dużych przychodów, z których dostawca będzie w stanie pokryć koszty rozwoju i utrzymania platformy. Dlatego odpowiednikiem niedoinwestowania przez użytkowników jest niedoinwestowanie przez host providera. Każde rozwiązanie musi brać pod uwagę kwestie finansowe. Wymogi finansowania wymagają regulowania dostępu do niektórych części pakietu dóbr lub usług.

Odwrotna proporcja (trade-off) między utratą kontroli dostępu a kontrolą pozwala testować hipotezę, iż dostawca będzie miał tendencję do realizacji hybrydowych struktur, które odzwierciedlają połączenie ogólnodostępnych, nieodpłatnych elementów (w celu promowania platformy) oraz zamkniętych, regulowanych warunków dostępu do niektórych elementów (w celu pokrycia kosztów).

Parametry te znacznie ograniczają pole racjonalnego wyboru. Na rynku technologii ICT jest mało prawdopodobne, aby tolerowano całkowicie zamknięte lub całkowicie otwarte struktury, ponieważ w pierwszym przypadku zawęża się krąg użytkowników (co zmniejsza wartość platformy), w drugim natomiast - limituje strumienie przychodów (co utrudnia platformie pokrycie kosztów). Mówiąc inaczej, rynek wynagradza hojność providera i nie karze jej jako nadmiernej tak długo, jak jest to spójne z trendem rozwoju rynku.

Wirtualne wspólnoty (pozornie) non-profit przyjmują zamknięte rozwiązania w celu umożliwienia pokrycia kosztów utrzymania platformy i uniknięcia jej upadku. W polityce prawa i w świetle literatury na temat open source i związanego z nim środowiska generowania innowacji zakłada się, że w interesie publicznym leży transformacja innowacji zamkniętych na otwarte. Jeśli otwarte i zamknięte struktury (i wszystkie pośrednie warianty) mogą po prostu odzwierciedlać strategiczne podejście do podstawowego dylematu odwrotnej proporcji (trade-off) między kontrolą oportunizmu host providera i umożliwieniem zwrotu kosztów z jednej strony, a następnie wyborem strategii - z drugiej strony, to nie istnieją na pierwszy rzut oka żadne podstawy do interwencji regulacyjnej. Zasady dostępu, jak i realizowane przez niektórych dostawców połączenie zamkniętych i otwartych elementów organizacyjnych, mogą być natomiast elementem strategicznego dążenia do powiększania udziału w rynku. Ponadto nie ma pewności, że otwarte rozwiązania są korzystne dla konsumenta. To zaskakujące, ale może zaistnieć sytuacja, w której udostępnianie aktywów własności intelektualnej - pozornie dobre z perspektywy konsumenta - wywrze negatywny wpływ (odstraszający) na nowe wejścia na dany rynek, co uchroni dominujące podmioty przed potencjalnymi konkurentami.

Dostawca, który przekazuje swoje aktywa na rzecz platformy technologicznej, może w istocie zmuszać samodzielnych dostawców, aby wyszli z rynku. W dalszym ciągu może zażądać opłat w obszarach stanowiących uzupełnienie rynków, w których posiada przewagę konkurencyjną. Odpowiedź na pytanie, co jest lepsze, gorsze, czy obojętne dla klientów (a także dla konkurencji), powinna uwzględniać cały pakiet usług, choć mimo to ocena może być niejednoznaczna w danym przypadku.

Kluczowe jest następujące pytanie - dlaczego racjonalni ekonomicznie aktorzy oddają cenne - czasem niezwykle cenne technologiczne aktywa? Niektórzy autorzy wskazują na znaczenie czynników pozaekonomicznych, takie jak altruizm, ideologia, etyka, pasja.

Ale podkreślanie roli tych czynników nie brzmi wiarygodnie w odniesieniu do podmiotów komercyjnych, zobowiązanych prawnie do zarządzania wartością spółki i poddanych naciskom biznesowym w celu maksymalizacji zysków właścicieli. Istniejące wyjaśnienia są następujące28:

  • firmy są zmuszone do rezygnacji z zasobów wiedzy, które nie mogą być skutecznie chronione za rozsądną cenę,
  • firmy chcą przeciwdziałać patentowaniu innowacji przez konkurentów,
  • przedsiębiorstwa starają się pozyskiwać naukowców skłonnych do gromadzenia kapitału reputacji w społeczności naukowej oraz społeczności open source,
  • firmy starają się budować duże platformy, które mogą być w przyszłości źródłem zysków.
Te wyjaśnienia zasługują na uwagę, aczkolwiek są one raczej efektem analizy przypadków, a nie uogólnień teoretycznych.

Każda platforma ICT, która składa się ze sprzętu i oprogramowania, musi umożliwiać użytkownikom dokonywanie transakcji po niższym koszcie niż gdyby dokonywane były bezpośrednio między nimi. W przeciwnym razie nie zostanie ona przyjęta przez użytkowników. Efekty sieci powinny wzmacniać oszczędności kosztów transakcyjnych oraz promować osiąganie zysków. Oznacza to, że dla każdego użytkownika korzyści są funkcją rosnącej liczby innych użytkowników lub wielości zastosowań.

Dla dostawcy wartość platformy jest zatem funkcją rosnącej liczby użytkowników końcowych. Wtedy także coraz więcej programistów pisze aplikacje, które dają nowe możliwości zastosowań. Przykładów jest wiele: Microsoft Windows, Sony PlayStation, Apple iPhone, Bell Labs (tranzystory). Im więcej aplikacji napisanych dla systemu Windows, tym szybszy jest wzrost jego wartości i tym większą liczbę użytkowników on przyciąga, co z kolei motywuje kolejnych programistów do pisania kolejnych aplikacji dla tego systemu. Współzależne funkcje popytu, które charakteryzują platformy oparte na szerokich rynkach, oznaczają, że przyjęcia nowych użytkowników mogą wykazywać zarówno pozytywne, jak i negatywne efekty sprzężenia zwrotnego.

Rynki platform sieciowych opartych na standardach de facto zachowują się zgodnie z zasadą: „zwycięzca bierze wszystko”. Nawet najbardziej dominująca platforma nie ma wszelako całkowicie pewnej sytuacji. Nieco szersze spojrzenie na rynki technologii ICT pokazuje, że nawet dominująca platforma może przegrać. Można podać kilka przykładów: np. IBM, który praktycznie stworzył rynek komputerów osobistych, ale szybko został przytłoczony przez rozwój przenośnych urządzeń komputerowych, a następnie przez system BlackBerry firmy RIM, sprzedany w trudnej sytuacji firmie Hewlett-Packard w 2010 roku; czy America Online (AOL) - silny dominant na rynku usług internetowych - który był tak potężny, że w 2001 r. nabył konglomerat medialny Time Warner, jednak wartość rynkowa połączonych podmiotów znacznie następnie spadła.

Host provider może przejąć koszt i ryzyko zwiększenia zasięgu platformy w formie pomocy technicznej lub innego wsparcia - premiowania odpowiednio wczesnej akcesji do platformy.

Można podać wiele innych przykładów - np. JVC w latach 70. XX w. i szerokiego licencjonowania technologii VHS dla magnetowidów, która przeważała nad Betamax, przegapienie trendów rozwoju rynku przez Sony lub decyzji licencyjnych firmy Xerox z 1979 roku, Ethernet i rozwój lokalnej technologii sieci za symboliczną opłatą, co przyczyniło się do globalnego rozwoju tego systemu. Każdy z tych kosztownych transferów stanowi swego rodzaju zobowiązanie dostawcy, że gotów jest ponieść koszty, gdy platforma nie rozwinie się zgodnie z oczekiwaniami. Strategia ta jest obliczona na budowę klimatu zaufania, że platforma osiągnie wystarczającą skalę, aby zrekompensować te koszty. Dostawca może zniechęcać użytkowników do zmiany platformy, m.in.: przez zwiększanie opłat za korzystanie z niektórych usług, ograniczanie pomocy technicznej, zmniejszanie wartości inwestycji użytkowników istniejącej platformy - np. w wyniku częstych aktualizacji aplikacji (Microsoft, Intel) - powiększanie kosztów transakcyjnych w przypadku zrealizowania zamiaru zmiany platformy, podwyższanie kosztów przestawienia (switching costs). Użytkownicy dokonują inwestycji ex ante - które są „specyficzne” dla platformy (czyli nie mają zastosowania poza platformą), co oznacza możliwość pozbawienia ich ex post pewnych aktywów, których nie można już w pełni odzyskać (sunk costs), a następnie regulowania dostępu w celu wyodrębnienia wartości z zablokowanych użytkowników.

Model Unix określono jako platformę w zasadzie otwartą (mostly-open-platform), natomiast model Windows - jako częściowo zamkniętą (semi-closed-platform). Model Windows poszedł drogę ujednolicenia standardów, co w istocie przyśpieszyło jego rozwój, a Unix ugrzązł w gąszczu licznych, niespójnych wersji (wariantów). Nowsze modele: open source oraz Nokia/Google - to z kolei modele częściowo otwarte. Są one rozwijane dwojako: przez społeczności wolontariuszy i entuzjastów internetu lub przez podmioty komercyjne.

System operacyjny Unix został stworzony na początku 1970 roku w Bell Labs (ATT). W połowie lat 80. XX w. stał się platformą dla minikomputerów i stacji roboczych, jednak jej sukces był obciążony przez rozpowszechnianie nie w pełni kompatybilnych wersji. Począwszy od 1987 roku ATT dążył do ujednolicenia systemu Unix we współpracy z Sun Microsystems - producentem stacji roboczych - a następnie do szerokiego licencjonowania na rzecz różnych interesariuszy. Ten ruch był postrzegany przez rynek jako próba „reprywatyzacji” systemu Unix, więc w 1988 roku IBM i inni producenci sprzętu założyli Open Software Foundation, organizację non profit dążącą do jego ujednolicenia i udostępniania go na otwartej licencji.

Następnie IBM sprzedał swoje udziały w systemie operacyjnym Unix firmie Novell, która z kolei przekazała prawa do znaku towarowego UNIX do konsorcjum X/Open - organizacji non-profit, która zajęła się standaryzacją UNIX. Celem było skłonienie do inwestycji deweloperów oraz umożliwienie im odzyskania nakładów dzięki strategii pakietowej. Dzisiaj podobnie wyglądają działania mające na celu stworzenie otwartego systemu operacyjnego Linux, który jest następcą UNIX, do komputerów, laptopów i smartfonów.

Narodziny nowoczesnego przemysłu komputerów osobistych są często przedstawiane jako efekt transakcji pomiędzy IBM i Microsoft, w którym Microsoft zgodził się na MS-DOS jako system operacyjny (co najważniejsze, na niewyłącznej podstawie) dla nowych komputerów IBM w 1981 roku. Dalsza sekwencja zdarzeń jest dobrze znana: IBM nie był w stanie zachować wyłączności na PC, który stał się towarem „sklonowanym” przez inne firmy, następnie próbował zachować wyłączność na nowy składnik oprogramowania „premium”. Jednakże znaczny udział w rynku zachował system Windows, następca MS-DOS. IBM w dużej mierze przyznał się do porażki na rynku systemów operacyjnych dla komputerów stacjonarnych, co ostatecznie doprowadziło do sprzedaży działu PC na rzecz Lenovo.

Microsoft zachował wyłączność na platformy systemu Microsoft Windows, który przetrwał jako produkt najwyższej klasy oprogramowania w skojarzeniu z mikroprocesorami sprzedawanymi przez Intel i sprzętem pochodzącym od wielu firm. Ale Microsoft dobrowolnie zrzekł się części praw wyłącznych na rzecz niezależnego oprogramowania pochodzącego od licznych deweloperów, którzy opracowują aplikacje zwiększające wartość pakietu Windows. Microsoft rozwinął całą sieć porozumień z wieloma firmami, na rzecz których świadczy usługi pomocnicze użytkownikom i programistom, generującym uzupełniające, istotne dla całości systemu aktywa, wspierające wartość platformy, umożliwiając w ten sposób Microsoftowi zarabianie na użytkownikach końcowych. Z perspektywy Microsoft „ostrożny altruizm” bardzo się zatem opłaca.

Wnioski

Na rynkach nowych technologii standaryzacja, interoperacyjność urządzeń i kompatybilność produktów mają kluczowe znaczenie. Ujawnianie i udostępnianie wiedzy przyśpiesza powstawanie innowacji. Kolejne fazy rozwoju wiedzy następują po sobie, nawiązując do poprzedników. Dostęp do światowego dorobku w danej dziedzinie jest zatem bardzo ważny dla postępu. Prawa wyłączne nie zawsze są używane w konkurencji innowacyjnej, lecz także do tworzenia strategicznych barier wejścia na dany rynek dla konkurentów. Dotychczasowy model zamkniętych innowacji, który polega na pełnej kontroli firmy nad IPR, ewoluuje w kierunku modelu otwartych innowacji. Informacja i wiedza nabierają cech dobra publicznego. Dyfuzja wiedzy zapewnia wyższe zyski niż w warunkach monopolu IPR - ze względu na pozytywne efekty sieciowe. Należy wskazać na zbiorowy, kolektywny charakter innowacji, rosnącą rolę kooperacji w łańcuchu wartości sektora high-tech, także między konkurentami, Zasady dostępu i realizowane przez niektórych dostawców połączenie zamkniętych i otwartych elementów organizacyjnych, mogą być wyrazem konieczności kompromisu między otwartością a pokryciem kosztów organizacji platformy, ale mogą stanowić także element strategicznego dążenia do powiększania udziału w rynku. Organy ochrony konkurencji powinny natomiast przykładać dużą wagę do perspektywy konkurencji dynamicznej oraz innowacji dających szansę na zmiany rynkowe i poprawę dobrobytu konsumentów w długim okresie. Należy wskazać na wspólną logikę rozwoju nowej infrastruktury wiedzy, sprzętu czy oprogramowania (Next Generation Networks) oraz ruchu Open Access, ponieważ łącznie powstają nowe możliwości dzielenia się wiedzą i korzystania z badań w innowacyjny sposób lub na nowych polach. Korzyści wynikają nie tylko z dyfuzji wiedzy, lecz także licznych usług, produktów mających wartość dodaną dla wszystkich interesariuszy. Tragedii „wspólnego pastwiska” (tragedy of the commons) przeciwstawia się tragedię prywatnego zawłaszczania (tragedy of anticommons). Regulacja stoi przed wyzwaniem, jak pogodzić oba skrajne modele.

Bibliografia

  • H. Aufmkolk, Der reformierte Rechtsrahmen der EU-Kommission fűr Vereinbarungen űber horizontale Zusammenarbeit, „Wirtschaft und Wettbewerb” 2011, nr 7-8.
  • Y. Benkler, The Wealth of Networks. How Social Production Transforms Markets and Freedom, Nowy Jork 2006.
  • H.W. Chesbrough, Open Innovation. The New Imperative for Creativity and Profiting from Technology, Harvard Bussines School, Harvard 2003.
  • J. Drexl (red.), Research Handbook on Intellecual Property and Competition Law, Edward Elgar, Northampton 2008.
  • T. Fett, F. Bentele, E-Geld Aufsicht light? Das Gesetz zur Umsetzung der zweiten E-Geld-Richtlinie und seine Auswirkungen auf E-Geld-Institute, „Zeitschrift fűr Wirtschafts- und Bankrecht” 2011, nr 29.
  • M. Grützmacher, Lizenzgestaltung für neue Nutzungsformen im Lichte von &69d UrhG, „Computer und Recht Heft” 2011, nr 11.
  • Innowacyjność w Polsce w 2009 roku - materiały konferencyjne, Warszawa 2010.
  • K. Klincewicz, Zarządzanie technologiami. Przypadek niebieskiego lasera, Wyd. Naukowe Wydziału Zarządzania UW, Warszawa 2010.
  • T. Lűbbig, Die Reform der EU-kartellrechtlichen Regeln űber die horizontale Zusammenarbeit, „Zeitschrift fűr Europäisches Wirtschafts- und Steuerrecht” 2011, nr 1-2.
  • J. Majcher, Dostęp do urządzeń kluczowych w świetle orzecznictwa antymonopolowego, Wyd. Prawo i Praktyka Gospodarcza, Warszawa 2005.
  • M.J. Mendes (red.), Digital Communities in a Networked Society. e-Commerce, e-Business and e-Government, Kluwer, Nowy Jork 2004.
  • M.J. Mendes (red.), Economics of Intellectual Property Law Vol. II, Edward Elgar, Northhampton 2007.
  • D. Miąsik, T. Skoczny, M. Surdek (red.), Sprawa Microsoft - studium przypadku. Prawo konkurencji na rynkach nowych technologii, Wyd. Naukowe WZ UW, Warszawa 2008.
  • G. Nobbe, Neuregelungen im Zahlungsverkehrsrecht. Ein kritischer Überblick, „Zeitschrift fűr Wirtschafts- und Bankrecht” 2011, nr 21.
  • W. Szpringer, Regulacja konkurencji a konkurencja regulacyjna, POLTEXT, Warszawa 2010.
  • W. Szpringer, Koncepcja Open Access w świetle ekonomicznej analizy praw własności intelektualnej, Wolters Kluwer, Warszawa 2011.
  • B. Targański, Ochrona konkurencji w działalności platform handlu elektronicznego WoltersKluwer, Warszawa 2010.
  • R.A. Ward, Discovering Facebook: Social Network Subpoenas and the Stored Communications Act, „Harvard Journal of Law & Technology” 2011, t. 24, nr 2.

Netografia

INFORMACJE O AUTORZE

WŁODZIMIERZ SZPRINGER

Autor jest profesorem Szkoły Głównej Handlowej (Kolegium Nauk o Przedsiębiorstwie) oraz Uniwersytetu Warszawskiego (Wydział Zarządzania), wykładowcą i ekspertem z zakresu bankowości i prawa bankowego, polityki i prawa konkurencji, prawnych i ekonomicznych zagadnień e-biznesu, prawa nowych technologii oraz ekonomicznej analizy prawa i oceny skutków regulacji. Ponadto jest członkiem Consumer Finance Network (European Credit Research Institute), European Network for Better Regulation, European Consumer Debt Network, European Coalition for Responsible Credit oraz Expert Group "Customer Mobility in Relation to Bank Accounts" przy DG Internal Market & Services. Na swoim koncie ma ponad 200 publikacji naukowych i licznych ekspertyz dla naczelnych organów państwa.

 

Komentarze

Nie ma jeszcze komentarzy do tego artykułu.

dodaj komentarz dodaj komentarz

Przypisy

1 Por. W.M. Landes, R.A. Posner, An Economic Analysis of Copyright Law, [w:] R.P. Merges (red.), Economics of Intellectual Property Law, t.. II, Edward Elgar, Northhampton 2007.

2 FRAND, www.ucl.ac.uk/laws/.... [24.11.2011].

3 Por. P. Chappatte, P. Walter, T. Blanchard, IPR and Competition Law - Excessive Patent Royalty Claims by Non-Practising Entities, www.slaughterandmay.... [24.11.2011]; R.P. Greenspoon, C.M. Cottle, Don't Assume a Can Opener - Confronting Patent Economic Theories with Licensing and Enforcement Reality, „The Columbia Science and Technology Law Review” 2011, nr 12, www.stlr.org/html/v.... [24.11.2011]; G. Parchomovsky, P. Wagner, Patent Portfolios, „University of Pennsylvania Law Review” 2005, t.154, nr 1, www.ftc.gov/bc/work.... [24.11.2011], Mining Your Patent Portfolio. Legal and Business Strategies for Maximizing the Value of Patent Portfolio, materiały seminaryjne, www.lawseminars.com.... [24.11.2011].

4 Pojęcie gąszczu patentowego odnosi się do potencjalnego problemu, gdy wobec dużej liczby patentów niezbędnych do wytwarzania jakiegoś produktu następuje spowolnienie innowacji w danej dziedzinie ze względu na obawy przed komplikacjami i pozwami o naruszenie praw patentowych. Definicja dostępna na stronie, eur-lex.europa.eu/L.... [24.11.2011].

5 Por. G. Niedbalska, Nowe podejście do problemu własności intelektualnej, materiały z konferencji Innowacyjność w Polsce w 2009 roku, Warszawa, 15.04.2010.

6 Por. H.W. Chesbrough, Open Innovation. The New Imperative for Creativity and Profiting from Technology, Harvard Bussines School, Harvard 2003; Y. Benkler, The Wealth of Networks. How Social Production Transforms Markets and Freedom, Nowy Jork 2006.

7 Por. M.J. Mendes (red.), Digital Communities in a Networked Society. e-Commerce, e-Business and e-Government, Kluwer, Nowy Jork 2004.

8 Por. C. Jasserand, Creative Commons Licenses and Design. Are they Two Compatible? „Journal of Intellectual Property, Information Technology and E-Commerce Law” 2011, nr 2, www.jipitec.eu; H. Heinze, Software als Schutzgegenstand des europäischen Urheberrechts, „Journal of Intellectual Property, Information Technology and E-Commerce Law” 2011, nr 2.

9 Pojęcie „bezpiecznych portów” odnosi się do prawnych gwarancji stabilności prowadzenia działalności gospodarczej przez dostawców usług w internecie - nie ponoszą oni odpowiedzialności za zwykły przepływ danych lub ich czasowe przechowywanie (mere conduite, caching i hosting), o ile nie wiedzieli o przypadku naruszenia prawa np. przez nielegalny kontent lub inne działania użytkowników. Por. L. Helman, G. Parchomovsky, The Best Available Technology Standard, „Columbia Law Review” 2006, nr 6, www.columbialawrevi.... [24.11.2011].

10 Por. Sprawa Scarlet/SABAM, orzeczenie ETS z 24.11.2011, C-70/10.

11 Por. R.A. Ward, Discovering Facebook: Social Network Subpoenas and the Stored Communications Act, „Harvard Journal of Law & Technology” 2011, t. .24, nr 2.

12 Por. G. Nobbe, Neuregelungen im Zahlungsverkehrsrecht. Ein kritischer Überblick, „Zeitschrift fűr Wirtschafts- und Bankrecht” 2011, nr 21; T. Fett, F. Bentele, E-Geld Aufsicht light? Das Gesetz zur Umsetzung der zweiten E-Geld-Richtlinie und seine Auswirkungen auf E-Geld-Institute, „Zeitschrift fűr Wirtschafts- und Bankrecht” 2011, nr 29; A.G. Araiza, Electronic Discovery in the Cloud, „Duke Law&Technology Review” 2011, nr 9, www.law.duke.edu/jo.... [24.11.2011].

13 Por. K. Klincewicz, Zarządzanie technologiami. Przypadek niebieskiego lasera, Wyd. Naukowe Wydziału Zarządzania UW, Warszawa 2010, s. 38 i następne; B. Targański, Ochrona konkurencji w działalności platform handlu elektronicznego, WoltersKluwer, Warszawa 2010, s. 90 i następne.

14 Por. J. Drexl, Is there a More Economic Approach to intellectual property and competition law?, M.O. Maxckenrodt, Assesing the effects of intellectual property rights in network standards, A. Heinemann The contestability of IP-protected markets, [w:] J. Drexl (red.), Research Handbook on Intellecual Property and Competition Law, Edward Elgar, Northampton 2008.

15 Doktryna essential facility zmierza do uniknięcia sytuacji, w której odmowa dostępu do określonych urządzeń kluczowych stałaby się instrumentem zapewnienia sobie pozycji monopolistycznej na rynkach, na których pojawienie się konkurencji uwarunkowane jest możliwością korzystania z tych urządzeń. Por. A. Michalak, Licencje przymusowe w prawie autorskim w świetle orzeczenia IMS Health, „Monitor Prawniczy” 2006, nr 3, www.monitorprawnicz.... [24.11.2011]; M. Kępiński, P. Szot, Microsoft - problematyczny sukces? Historia o licencjach przymusowych i doktrynie koniecznej infrastruktury. Perspektywa Stanów Zjednoczonych i Unii Europejskiej, UAM, Poznań 2010, repozytorium.amu.ed.... [24.11.2011]; J. Majcher, Dostęp do urządzeń kluczowych w świetle orzecznictwa antymonopolowego, Wyd. Prawo i Praktyka Gospodarcza, Warszawa 2005.

16 Sprawa: IMS Health pokazała, że istnieją granice ochrony baz danych sui generis, czyli ochrony zbliżonej do prawa autorskiego. Ktokolwiek bowiem chciałby konkurować z IMS Health, musiałby z konieczności opierać się na tych samych modułach, np. podziale administracyjnym kraju, położenia oraz zakresu działania aptek czy szpitali. Potencjalny konkurent nie musi więc się starać o licencję na bazę danych i płacić na rzecz IMS Health opłat licencyjnych. Por. C. Schmidt, Refusal to License Intellectual Property Rights as Abuse of Dominance, Peter Lang, Frankfurt 2010.

17 Por. H. Aufmkolk, Der reformierte Rechtsrahmen der EU-Kommission fűr Vereinbarungen űber horizontale Zusammenarbeit, „Wirtschaft und Wettbewerb” 2011, nr 7-8; T. Lűbbig, Die Reform der EU-kartellrechtlichen Regeln űber die horizontale Zusammenarbeit, „Zeitschrift fűr Europäisches Wirtschafts- und Steuerrecht” 2011, nr 1-2.

18 Można do niej zaliczyć m.in. następujące działania Microsoftu:
•oferowanie klientom nowego produktu za darmo i np. przypadek pozbawienia firmy Netscape tradycyjnych źródeł przychodów,
•agresywne taktyki negocjacyjne i „podkupywanie” dotychczasowych dużych klientów Netscape,
•skłonienie wiodących dostawców internetu w USA (AOL, AT&T, Compuserve, MCI, Netcom, Prodigy i Sprint) do zastąpienia produktu Netscape przez Internet Explorer, mimo poniesienia przez nie wcześniej wydatków na zakup Netscape Navigator,
•współpracę z najważniejszymi dostawcami oprogramowania użytkowego, korzystającego z przeglądarki Netscape (Apple, Intuit, Lotus/IBM),
•selektywne inwestycje w zakup mniejszościowych pakietów w firmach, mające na celu podporządkowanie sobie ich strategii,
•restrykcyjne umowy z producentami komputerów, ograniczające możliwości sprzedaży produktów konkurencyjnych wobec Internet Explorer w zamian za dodatkowe korzyści,
•umowy wiązane, obejmujące współpracę techniczną w zamian za ustępstwa strategiczne,
•technologiczne uprzywilejowanie wybranych, zasłużonych partnerów Microsoftu,
•dofinansowanie firm wcześniej wspierających konkurencyjne rozwiązania w celu spowodowania ich konwersji na produkty Microsoftu.
Por. K. Klincewicz, Ekonomiczne i strategiczne wyzwania rynku informatycznego a przypadek firmy Microsoft, [w:] D. Miąsik, T. Skoczny, M. Surdek (red.), Sprawa Microsoft - studium przypadku. Prawo konkurencji na rynkach nowych technologii, Wyd. Naukowe WZ UW, Warszawa 2008, s. 172.

19 Por. M. Grützmacher, Lizenzgestaltung für neue Nutzungsformen im Lichte von &69d UrhG, „Computer und Recht Heft” 2011, nr 11, s. 697 i następne.

20 W odpowiedzi na popularność języka Java, wspieranego przez przeglądarkę Netscape Navigator, Microsoft wprowadził i aktywnie promował własną wersję języka, niekompatybilną z rozwiązaniami konkurentów (także ze specyfikacją autora Javy - Sun Microsystems). Microsoft był gotów ponieść ogromne koszty rozwoju własnej wersji języka Java, by zaszkodzić konkurentom: Netscape i Sun. Aczkolwiek niezależni programiści potrafili obejść niektóre techniczne ograniczenia, czego przykładem mogą być programy OpenOffice czy Samba, wykorzystujące standardy Microsoftu mimo braku dostępu do oficjalnej dokumentacji firmy.

21 Tamże, s.168.

22 Por. wersję skonsolidowaną Traktatu o Funkcjonowaniu Unii Europejskiej (TFUE), eur-lex.europa.eu/L.... [07.12.2011].

23 Por. D. Miąsik, Sprzedaż wiązana systemu operacyjnego Windows z oprogramowaniem użytkowym Windows Media Player, [w:] D. Miąsik, T. Skoczny, M. Surdek (red.), dz.cyt., s. 126 i następne.

24 Koncepcja more economic approach zmierza do pełniejszego uwzględnienia w orzecznictwie antymonopolowym rozumowania ekonomicznego o efektach działań rynkowych przedsiębiorców np. porozumień ograniczających konkurencję (karteli) oraz koncentracji (fuzji i przejęć). Chodzi o to, by nie blokować działań firm, których efekty dla dobrobytu przewyższają straty z tytułu ograniczania konkurencji, np. na rynkach nowych technologii, i które są akceptowane przez konsumentów. Por. W. Szpringer, Regulacja konkurencji a konkurencja regulacyjna, POLTEXT, Warszawa 2010, W. Szpringer, Koncepcja Open Access w świetle ekonomicznej analizy praw własności intelektualnej, Wolters Kluwer, Warszawa 2011.

25 Główne punkty w tej sprawie dotyczyły zobowiązania firmy Microsoft do udostępniania klientom zubożonej wersji pakietu Microsoft Windows - bez odtwarzacza multimedialnego Media Player i ujawnienia interfejsów oprogramowania, które umożliwia korzystanie z innych odtwarzaczy multimedialnych.

26 Por. J.M. Barnett, The Host's Dilemma: Strategic Forfeiture in Platform Markets for Informational Goods, „Harvard Law Review” 2011, t. 124, www.harvardlawrevie.... [24.11.2011].

27 Nokia w 2008 r. zapłaciła 410 mln USD za nabycie praw właścicielskich do systemu Symbian - jednego z najszerzej używanych na świecie systemów operacyjnych do smartfonów. Byłby to w zasadzie dosyć typowy przypadek koncentracji, gdyby nie fakt, że Nokia przekazała prawa w zakresie zarządzania, rozwijania i dystrybucji tego systemu na rzecz Symbian Foundation i zaprosiła szereg firm z rynku telekomunikacyjnego, także konkurentów, do zarządu tej fundacji. W okresie kolejnych kilku lat fundacja poświęciła wiele wysiłku na wyjaśnianie praw osób trzecich do kodu źródłowego Symbian, który w końcu w 2010 roku został publicznie udostępniony na licencji open source.

28 Por. J.M. Barnett, dz.cyt.