Wstęp do tematu sztucznej inteligencji często oscyluje wokół niezwykłych możliwości i rewolucji technologicznej. Jednakże, prof. Dariusz Jemielniak, znany ekspert i wiceprezes Polskiej Akademii Nauk, podnosi istotne zastrzeżenia. Czy możliwość generowania profesjonalnie wyglądających treści przez AI otwiera drzwi do nowego typu manipulacji? Prześwietlimy tę kwestię w kontekście walki z dezinformacją medyczną i wpływu na działania prozdrowotne społeczeństwa.
Sztuczna inteligencja – narzędzie wszechmocne czy wszechzagrożenie?
Sztuczna inteligencja nieustannie ewoluuje, stając się coraz bardziej wyrafinowaną i niezawodną w naśladowaniu ludzkich umiejętności. Profesor Dariusz Jemielniak zwraca uwagę, że ta sama technologia, która została stworzona, by wspierać ludzi w pracy, może być także wykorzystywana do nieetycznych celów. W szczególności, AI stała się narzędziem w manipulowaniu informacjami, co może prowadzić do szerzenia nieprawdziwych treści o pozornej profesjonalności.
Fenomen ten dotyka również sektora medycznego, gdzie dezinformacja może mieć realne i niebezpieczne konsekwencje. Projekt MEDfake to jedna z inicjatyw, które starają się przeciwdziałać temu zjawisku, koncentrując się na zwalczaniu nieprawdziwych wiadomości dotyczących zdrowia.
Jak AI wpływa na produkcję treści w dobie fake newsów?
Sztuczna inteligencja może sprawnie generować wiarygodnie brzmiące artykuły, posty czy komentarze, które następnie są rozpowszechniane w internecie. Nie zawsze jest łatwo rozpoznać, że mamy do czynienia z tekstami wygenerowanymi przez maszyny. To otwiera szerokie pole do wykorzystania lęku i niepewności społeczeństwa, co może zniechęcać do podejmowania działań prozdrowotnych, takich jak szczepienia.
Dane dotyczące szczepień w Polsce są niepokojące. W 2022 roku odsetek dzieci całkowicie zaszczepionych w trzecim roku życia wyniósł 83,9%, podczas gdy w 2019 roku było to 85,2%. Spadek ten może być wynikiem szerzenia się dezinformacji w sieci, szczególnie dotyczącej szczepień przeciwko grypie.
Wpływ dezinformacji na postawy społeczne
Inteligencja społeczna wykorzystuje słabości ludzkiej psychiki, co w połączeniu z platformami społecznościowymi sprzyja rozprzestrzenianiu fałszywych informacji. Specyfika polskiego społeczeństwa również może wpływać na zwiększoną podatność na manipulację, w której jednostki lub nawet grupy zawodowe, takie jak lekarze, mogą wyrażać niechęć do szczepień.
Dochodzi do tego, że pewne ruchy antyszczepionkowe mogą być finansowane przez podmioty zewnętrzne, które celują w destabilizowanie zaufania publicznego. Pandemia COVID-19, wyjątkowo podkreśliła naszą nieufność do instytucji i ekspertów, co dodatkowo nasila problem.
Jak skutecznie walczyć z dezinformacją?
Rząd i instytucje publiczne, stojąc w obliczu tej wyjątkowej sytuacji, powinny przyjąć bardziej efektywne metody komunikowania się z obywatelami. Rozważane są nawet kary finansowe dla platform społecznościowych, które pośredniczą w rozpowszechnianiu fake newsów. Z drugiej strony, otwarta i uczciwa komunikacja może okazać się kluczem do budowania zaufania i świadomości społeczeństwa dotyczącej tak ważnych spraw jak szczepienia – które byłyby nie tylko opłacalne dla systemu zdrowia, ale i zmniejszałyby ryzyko zakażeń.
W kontekście sztucznej inteligencji i generowania treści, edukacja na temat jej możliwości, ale i zagrożeń, powinna stać się punktem programu na uczelniach, dając przyszłym specjalistom narzędzia do oceny wiarygodności informacji i budowania strategii komunikacji opartej na prawdzie i badaniach naukowych.
Wniosek z tej dyskusji jest taki, że choć AI otwiera przed nami ogromne możliwości, to musimy pozostać czujni i świadomi ryzyka, jakie niesie za sobą nieodpowiedzialne wykorzystywanie tej technologii. Profesor Jemielniak oraz inni eksperci podkreślają, że tylko poprzez należytą wiedzę i odpowiedzialność społeczną będziemy mogli wykorzystać potencjał sztucznej inteligencji do budowania lepszego świata, a nie do szerzenia dezinformacji i strachu.
Źródło – PAP