Eksperci są zdania, że tego rodzaju “błędu” nie da się naprawić, a chatboty będą dalej miały tendencję do podawania nieprawdziwych informacji.
Chatboty AI nie zawsze mają rację
Nie jest tajemnicą, że chatboty oparte na sztucznej inteligencji, takie jak ChatGPT mają silną tendencję do przeinaczania faktów. Te systemy niestety są tak samo dobre w zmyślaniu, jak i w pomaganiu ci w pracy — a kiedy te dwie rzeczy idą w parze, może dojść do katastrofy.
Czy da się to zmienić? Niektórzy eksperci – naukowcy, a nawet dyrektorzy, którzy sami sprzedają takie narzędzia, twierdzą, że chatboty są poniekąd skazane na podawanie nieprawdziwych informacji. Mimo, że ich twórcy robią wszystko, żeby to zmienić. Inni liderzy technologiczni są jednak optymistami — co nie jest zaskakujące, biorąc pod uwagę, że w grę wchodzą miliardy dolarów.
„Myślę, że przeniesiemy problem związany z przeinaczaniem faktów w znacznie, znacznie lepsze miejsce. Myślę, że zajmie nam to półtora roku, dwa lata. Coś w tym rodzaju.”
powiedział dyrektor generalny OpenAI, Sam Altman.
Chatboty AI vs. fakenewsy
Fakt, że chatboty oparte na AI są poniekąd skazane na kłamstwa jest o tyle niebezpieczny, że ich zastosowanie jest niezwykle powszechne. Z pomocy ChatuGPT korzystają również twórcy newsów i różnorodnych treści o charakterze informacyjnym. Na przykład Google udostępnia wielu portalom generator wiadomości oparty na AI – niestety te treści często są pełne nieścisłości.