Sztuczna inteligencja to bez wątpienia jedno z najbardziej magnetycznych haseł marketingowych ostatnich lat. Komputery, mimo że nie myślą, zdają się coraz bardziej wpływać na naszą codzienność. Wśród obietnic technologicznych przyszłości pojawia się prognoza na rok 2024, według której open-source’owe modele AI mają szansę dogonić takie giganty jak ChatGPT czy Bard od Google. Ale co, jeśli koncepcja otwartego oprogramowania nie jest aż tak przejrzysta, jak mogłoby się wydawać?
Sztuczna inteligencja i jej “otwarte” oblicze
Pojęcie “open-source” w kontekście AI jest obecnie nadużywane. Open-source, czyli oprogramowanie o otwartym kodzie źródłowym, to z założenia oprogramowanie dostępne dla każdego – do wglądu, modyfikacji i dystrybucji. Wydawać by się mogło, że to synonim wolności i demokratyzacji technologii, ale czy na pewno? Wśród projektów open-source pojawiają się nowe inicjatywy takich firm jak Mistral czy Hugging Face, które oferują darmowe alternatywy dla ugruntowanych na rynku firm AI.
Niemniej jednak, największe projekty open-source często są wspierane przez technologicznych olbrzymów, którym daleko do bezinteresowności. Te projekty mogą mieć dołączone dodatkowe ograniczenia, które sprawiają, że “otwartość” staje się bardziej iluzoryczna. Przykładem może być model Llama 2, wydany przez Meta Platforms Inc. w 2023 roku, którego licencja zabrania wykorzystywania go do trenowania innych modeli językowych. To pokazuje, że intencje gigantów technologicznych mogą nie zawsze w pełni pokrywać się z duchem współdzielenia wiedzy, na którym powinna bazować idea open-source.
Kiedy “open-source” staje się marketingowym chwytem
Open-source jako narzędzie brandingowe? Niestety, tak to czasem wygląda. Badanie wykazało, że wielkie firmy technologiczne wykorzystują termin “open source” w celach marketingowych, by lepiej prezentować się przed regulatorami i opinią publiczną. Open Source Initiative (OSI), organizacja promująca i chroniąca oprogramowanie open-source, stwierdziła, że użycie terminu “open source” przez Meta było błędne i zażądała od firmy skorygowania tego stwierdzenia.
To, że Meta nie odpowiedziała na pytania dotyczące ograniczeń licencyjnych, tylko pogłębia obawy o prawdziwe intencje za ich “otwartymi” projektami. Podobną sytuację mieliśmy w przypadku Apple i ich modelu AI o nazwie Ferret. Mimo że raporty prasowe opisywały go jako “open source”, jego licencja zawierała klauzule, które pokazywały, że nie jest on tak naprawdę w pełni otwartym oprogramowaniem.
Co dalej z “otwartą” sztuczną inteligencją?
Jeśli duże firmy technologiczne będą kierować projekty AI z otwartym kodem źródłowym w stronę swoich komercyjnych interesów, mniejsze przedsiębiorstwa mogą mieć trudności z konkurowaniem. To może prowadzić do utrwalenia dominacji wielkich graczy na rynku. Otwarte modele AI, które mają dogonić ChatGPT i Bard, mogą więc nie być tak otwarte, jak się wydaje. Rozważając wykorzystanie takich modeli, warto zwrócić uwagę nie tylko na ich funkcjonalność, ale także na licencyjne niuanse, które mogą znacząco wpływać na możliwości ich wykorzystania.
To, co wydaje się być obiecującą drogą do demokratyzacji technologii AI, może okazać się narzędziem w rękach nielicznych, służącym do utrzymania pozycji na rynku. Dlatego kiedy słyszymy o darmowych modelach AI, zawsze warto pamiętać o przysłowiowym drobnym druczku, który może znacząco zmienić grę.