AI tworzy (nielegalne?) kopie znaków towarowych z prostych promptów

ai tworzy nielegalne kopie znakow towarowych z prostych promptow

Czy sztuczna inteligencja może stać się niechcianym naśladowcą? Najnowsze badania pokazują, że modele generatywne AI są w stanie tworzyć repliki chronionych znaków towarowych, posługując się zaskakująco prostymi komendami. Jak to wpływa na prawa autorskie i gdzie przebiega granica między inspiracją a plagiatem?

AI i prawa autorskie: badania nad naśladowaniem wizerunków

Badacze AI przeprowadzili fascynujące studium, sprawdzając, czy generatywne modele AI mogą popełniać plagiat obrazów. W ich eksperymentach, określone modele wizualne były zdolne do generowania znanych postaci z użyciem krótkich lub pośrednich komend. Co ciekawe, modele te produkowały niemal identyczne wizerunki postaci z takich produkcji jak “Simpsonowie” czy “Gwiezdne Wojny”.

Kiedy badacze wpisywali do AI OpenAI’s Dall-E 3 komendę “włoski bohater gry”, otrzymywali rozpoznawalne obrazy Maria z Nintendo. Podobnie, fraza “animowana gąbka” generowała wyraźne obrazy SpongeBoba Kanciastoportego. To odkrycie, przeprowadzone przez badacza AI Gary’ego Marcusa i cyfrowego artysty Reida Southena, trwało dwa tygodnie i ujawniło, że modele AI mogą tworzyć “niemal repliki chronionych znaków towarowych” z prostych tekstowych komend.

Badacze testowali dwa wizualne modele AI, Midjourney i Dall-E 3, i stwierdzili, że oba mogą reprodukować niemal dokładne obrazy z filmów i gier wideo, nawet przy użyciu krótkich i pośrednich komend. Ich wyniki zostały opublikowane w IEEE Spectrum. Komenda “popularna kreskówka lat 90. z żółtą skórą” skłoniła Midjourney do wytworzenia rozpoznawalnych wizerunków postaci z “Simpsonów”, a “czarna zbroja z mieczem świetlnym” przyniosła bliskie podobieństwo do postaci z franczyzy “Gwiezdne Wojny”.

Rosnące obawy wokół generatywnych modeli AI

W społeczności naukowej i artystycznej narastają obawy dotyczące potencjału generatywnych modeli AI do popełniania plagiatu. Niedawny pozew, w którym The New York Times oskarżył GPT-4 o reprodukowanie fragmentów swoich artykułów, rzuca światło na rosnący problem.

Problem pojawia się, gdy generatywne modele działają jak “czarne skrzynki”, co sprawia, że trudno jest użytkownikom końcowym zrozumieć związek między wprowadzonymi danymi a wynikami. Stąd też trudno przewidzieć, kiedy model może wygenerować odpowiedź, która narusza prawa autorskie. Autorzy raportu zauważyli, że użytkownicy nie mają zasobów, aby zweryfikować naruszenie praw autorskich w wynikach modelu AI, jeśli nie rozpoznają od razu chronionego wizerunku.

Proponowane rozwiązania i reakcje twórców AI

Autorzy badania zaproponowali rozwiązania takie jak usunięcie chronionych dzieł z danych szkoleniowych, filtrowanie problematycznych zapytań czy wymienianie źródeł wykorzystanych do generowania obrazów. Sugerują, że modele AI powinny korzystać tylko z prawidłowo licencjonowanych danych szkoleniowych, dopóki nie zostanie znaleziony lepszy sposób na raportowanie pochodzenia obrazów i filtrowanie naruszeń praw autorskich.

Midjourney i OpenAI nie odpowiedziały na prośbę o komentarz od Business Insider. To wskazuje na potrzebę dalszej dyskusji i rozwoju odpowiednich mechanizmów prawnych oraz technologicznych, które będą chronić prawa twórców i właścicieli praw autorskich w erze rozwijającej się sztucznej inteligencji.

Udostępnij ten artykuł
Link do skopiowania
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Warto również przeczytać

Polecenia dzięki którym efektywnie wykorzystasz ChatGPT

exai darmowy ebook z promptami