Dynamicznie rozwijająca się sztuczna inteligencja sprzyja nauce, jednak trafiając w niepowołane ręce może posłużyć do tworzenia fałszywych informacji. „AI based medicine”, czyli medyczne fake newsy stają się coraz popularniejsze, a zaawansowana technologia sprawia, że informacje, szczególnie te dotyczące branży medycznej i farmakologicznej, są niemal niemożliwe do zweryfikowania.
Od niedawna sztuczna inteligencja zyskała na popularności, w następstwie czego w sieci pojawia się coraz więcej fake newsów. Również w medycynie AI osiągnęła mistrzostwo, tworząc wypowiedzi fikcyjnych ekspertów, generując zmanipulowane zdjęcia, fałszując prace naukowe. Wszystkie te działania służą do rozpowszechniania nieprawdziwych informacji o lekach, szczepieniach czy terapiach, tworząc realne zagrożenie dla życia i zdrowia.
Widząc sztucznie wygenerowane fotografie na przykład z celebrytami w nieodpowiednich dla nich rolach, rozróżnienie ich jest oczywiste. Problem pojawia się, gdy informacje dotyczą branży, której szczegóły nie są nam dobrze znane lub nie mamy czasu na weryfikację natłoku informacji. Perfekcję w tym zakresie osiągnął popularny ChatGPT, który niekiedy wykorzystywany jest do generowania fałszywych artykułów naukowych i bibliografii. W tym przypadku trzeba być bardzo czujnym i spostrzegawczym aby dostrzec, że informacje nie są prawdziwe.
W 2022 r. badacze z Uniwersytetu Karola w Czechach sprawdzili możliwości sztucznej inteligencji w tworzeniu wysokiej jakości fałszywych artykułów medycznych. Naukowcy wykorzystali ChatGPT, by ten wygenerował sfabrykowany artykuł naukowy z zakresu neurochirurgii. Pytania udoskonalano w miarę generowania odpowiedzi przez chat, co pozwalało na poprawę jakości wyników. Efekty badania okazały się szokujące – ChatGPT stworzył fałszywy artykuł, który był w zakresie słownictwa, struktur zdań i przedstawionych danych niemal identyczny co prawdziwy artykuł naukowy. Proces tworzenia pracy trwał zaledwie godzinę, a efekty, gdyby zostały opublikowane, mogłyby się stać realnym niebezpieczeństwem.
W pułapkę fake newsów można wpaść zwłaszcza w mediach społecznościowych, gdzie najłatwiej opublikować różnego rodzaju informacje i trafić do szerokiego grona odbiorców. Polubienie zdjęcia, filmu czy tekstu na Facebooku, Instagramie, Tik Toku czy Twitterze powoduje, że algorytmy zaczynają wyświetlać podobne posty, które mogą być tworzone przez boty i sztuczną inteligencję.
Sztucznej inteligencji sprzyja malejące zaufanie do systemu ochrony zdrowia
Sztuczna inteligencja zyskuje coraz większe zaufanie. Aż 67% pacjentów uważa, że mogliby skorzystać na diagnozach medycznych i poradach sztucznej inteligencji, a niemal tyle samo jest podekscytowanych faktem sztucznej inteligencji pomagającej w sprawniejszym odkrywaniu leków. Infodemia, czyli nadmiar informacji, nasilająca się od czasów pandemii Covid-19 sprawia, że coraz więcej osób odmawia leczenia. Według danych Narodowego Instytutu Zdrowa Publicznego, w ostatnich 5 latach liczba uchyleń od obowiązkowych szczepień niemal się podwoiła, a na przestrzeni 10 lat, wzrost jest dziesięciokrotny.
Jak radzić sobie z fake newsami?
W celu weryfikacji fake newsów podczas przeglądania treści w Internecie, należy zadawać sobie pytania:
– jakie jest źródło informacji?
– czy informacje są wiarygodne?
– kto jest autorem treści?
– czy kierują nami przekonania, które mogą mieć wpływ na nasz osąd?
Nawet jeśli fake newsy nie są bezpośrednim zagrożeniem dla zdrowia lub życia, mają negatywny wpływ na medycynę. Spada zaufanie do lekarzy i nauki, kompetencje pracowników medycznych są podważane, pacjenci odmawiają leczenia. Lekarze alarmują, że podczas wizyt często muszą prostować informacje pacjentów, przeczytane w Internecie. Należy więc pamiętać, że każdą treść zauważoną w sieci powinno się przeanalizować i zweryfikować pod względem jej autentyczności.
/pj/
Źródło: www.mgr.farm/
Za: portaldlamlodych.pl
zrzut ekranu/Youtube.com