Podczas Światowego Forum Ekonomicznego w Davos rozgorzała dyskusja na temat przyszłości ludzkości wobec szybko rozwijającej się sztucznej inteligencji (AI). Sam Altman, szef OpenAI, stanął w obliczu prostej, lecz palącej kwestii: co tak naprawdę człowiek może robić lepiej niż AI? To pytanie okazało się trudnym orzechem do zgryzienia, a jego echo odbija się szeroko w społeczności technologicznej.
Rozmowy o ludzkiej wyjątkowości na tle rozwoju AI
Davos stało się areną ważnej dyskusji, która dotyczy każdego z nas. Fareed Zakaria, znany dziennikarz, postawił Samowi Altmanowi z OpenAI proste pytanie dotyczące ludzkich umiejętności w konfrontacji z postępem technologicznym. Co robią ludzie lepiej niż maszyny? To z pozoru prosta kwestia wywołała godzinną debatę na temat przyszłości technologii i rozwoju ogólnej inteligencji sztucznej (AGI). Szczególną uwagę poświęcono osiągnięciom AGI w zakresie ogólnego pojmowania rzeczywistości, co do tej pory uważano za domenę człowieka. Altman przyznał, że ludzie nadal będą odpowiedzialni za podejmowanie decyzji w świecie, pomimo postępu w dziedzinie AGI.
Mimo wysiłków, panel ekspercki nie znalazł przekonującej odpowiedzi na zadane pytanie. Wskazuje to na rosnącą niepewność dotyczącą miejsca człowieka w coraz bardziej zautomatyzowanym świecie. Altman zauważył, że ludzie są bardziej wyrozumiali dla błędów popełnianych przez innych ludzi niż przez maszyny, co jest widoczne chociażby w kontekście autonomicznej jazdy. Natomiast zdolność do rozumienia interesów innych ludzi, jaką przypisuje się człowiekowi, nie znalazła poparcia u CEO Salesforce’a, Marca Benioffa.
Wizja przyszłości zdominowanej przez AI
Marc Benioff z Salesforce sugeruje, że jesteśmy na progu epoki, gdzie AI może zastąpić ludzi nawet w takich obszarach jak moderacja dyskusji. Podczas forum w Davos, Benioff odniósł się do badań z 2015 roku, które wykazały, iż algorytmy uczenia maszynowego stosowane przez Facebooka lepiej rozumieją preferencje użytkowników niż ich współmałżonkowie. To stawia pod znakiem zapytania przekonanie o unikalnej ludzkiej zdolności do empatii i głębokiego rozumienia drugiego człowieka.
Benioff poruszył również temat bezpieczeństwa i potencjalnych zagrożeń, nazywając rozwój AGI “momentem Hiroshima”. Podkreślał potrzebę zapewnienia, że AGI nie doprowadzi do katastrofalnych skutków. Tymczasem, Altman i Benioff zwrócili uwagę na rosnące napięcie i stres w społeczeństwie w miarę postępu w rozwoju AGI, opisując to jako dodanie każdemu “+10 punktów szaleństwa” przy każdym kroku w stronę potężnej AI.
Budowanie bezpiecznego AI powinno być priorytetem, aby uniknąć katastrofy – zgodzili się obaj liderzy technologiczni. Wszystkie te kwestie dowodzą, że jesteśmy w krytycznym momencie, w którym musimy zdecydować o kierunku, w którym pójdzie rozwój sztucznej inteligencji i jaką rolę w tym wszystkim odegra człowiek.