W obliczu rosnącego zainteresowania technologią AI przez wojsko, OpenAI dokonało dyskretnych, lecz istotnych zmian w swojej polityce użytkowania. Usunięcie z dokumentacji zakazu wykorzystywania ChatGPT dla „rozwoju broni” i „wojska i działań wojennych” rodzi pytania o przyszły wpływ sztucznej inteligencji na bezpieczeństwo globalne.
OpenAI zmienia politykę użytkowania — co oznacza dla bezpieczeństwa AI?
OpenAI, firma stojąca na ChatGPT, usunęła z zasad użytkowania jednoznaczny zakaz stosowania swoich narzędzi do celów militarnych. Wcześniej polityka firmy wyraźnie zabraniała wykorzystania technologii do „rozwoju broni” oraz „wojska i działań wojennych”. Nowe zasady, choć nadal zabraniają „używania naszej usługi do wyrządzania sobie lub innym krzywdy”, nie zawierają już bezpośredniego odniesienia do zakazu wykorzystania w sferze militarno-wojskowej.
Przedstawiciel OpenAI, Niko Felix, wyjaśnił, że celem jest stworzenie uniwersalnych zasad, które będą łatwe do zapamiętania i zastosowania. Zmiany w dokumentacji mają uczynić ją „bardziej zrozumiałą” i „czytelną”, jednak eksperci wyrażają obawy, że nowa polityka może faworyzować legalność nad bezpieczeństwem. Niepokojące jest to zwłaszcza w kontekście wykazanych skłonności LLM do prezentowania stronniczości oraz wprowadzania błędów.
Eksperci i wojsko w obliczu zmian w OpenAI
Zmiany w polityce OpenAI spotkały się z krytyką ekspertów, którzy wskazują na ciche osłabienie stanowiska firmy wobec współpracy z wojskiem. Szczególnie niepokojące może być to w świetle bliskiej współpracy OpenAI z Microsoftem, który jest znaczącym kontraktorem obronnym.
Pentagon, oraz wojska na świecie, z dużym entuzjazmem podchodzą do inkorporacji technik uczenia maszynowego. Już teraz pojawiają się informacje o wykorzystywaniu technologii OpenAI przez amerykańskich wojskowych do usprawniania pracy biurowej. Narodowa Agencja Wywiadowcza Geoprzestrzenna otwarcie spekuluje na temat wykorzystywania ChatGPT do wsparcia swoich analityków.
Implikacje wykorzystania LLM przez wojsko
Potencjał wykorzystania LLM w działaniach wojskowych jest ogromny, ale rodzi też szereg zagrożeń. Modele języka naturalnego mogą być używane do zadań graniczących z działaniami bojowymi. Wątpliwości budzi też tendencja LLM do generowania błędnych informacji, co może mieć poważne konsekwencje w kontekście działań militarnych.
Z drugiej strony, liderzy wojskowi, tak jak Zastępca Sekretarza Obrony Kathleen Hicks, uważają AI za kluczowy element strategii innowacyjnej. Mimo to, Kimberly Sablon z Pentagonu przyznaje, że obecne oferty nie są jeszcze na tyle technicznie zaawansowane, by spełniać wymogi etycznych zasad AI.
Przyszłość i odpowiedzialność OpenAI
Niejasne pozostaje, jak OpenAI zamierza egzekwować nowe zasady i jakie będą realne skutki zmian polityki. Wątpliwości budzi brak wyraźnej odpowiedzi na pytanie, czy zakaz “wyrządzania krzywdy” obejmuje wszelkie zastosowania militarno-wojskowe.
Bezpieczeństwo i etyka w dobie rozwoju AI wymagają klarownych zasad i odpowiedzialności. Zmiana polityki przez OpenAI nie może być lekceważona, zwłaszcza w kontekście rosnącego zainteresowania technologią AI przez sektor obronny. Znaczenie tych kwestii będzie wzrastać w miarę dalszego rozwoju i implementacji LLM w różnych sferach życia.