Чатботове, създадени от Google, Microsoft и OpenAI, споделят невярна информация за европейските избори два месеца преди стотици милиони да гласуват, сочи анализ, предоставен ексклузивно на POLITICO.
Макар че инструментите за изкуствен интелект са политически неутрални, те са склонни да връщат неверни дати на изборите и информация за това как да се гласува, заяви Democracy Reporting International, неправителствена организация със седалище в Берлин, която извърши проучването през март. Чатботовете също така често са предоставяли неработещи или дори нерелевантни връзки към видеоклипове в YouTube или съдържание на японски език, добавят изследователите.
"Не бяхме изненадани, че открихме грешна информация за подробности от европейските избори, защото чатботовете са известни с това, че измислят факти, когато предоставят отговори - явление, известно като халюцинация", каза Михаел Майер-Резенде, съосновател и изпълнителен директор на Democracy Reporting International.
Изследователите отбелязват, че чатботовете с изкуствен интелект са динамични, което прави експеримента труден за повторение. При серия от десетина теста с подобни въпроси, проведени от POLITICO във вторник, чатботовете или отказваха да отговорят изцяло, или пък актуализираха отговорите с връзки, насочващи потребителите към уебсайтовете на институциите на ЕС.
Майер-Резенде заяви, че експериментът все пак е бил достатъчно голям, за да бъде представителен. Той също така предостави нови доказателства за рисковете от т.нар. халюцинации на изкуствения интелект, които често се появяват поради недостатъчно данни за обучение, пристрастия и погрешни предположения, в навечерието на европейските избори, които ще се проведат от 6 до 9 юни.
Бързата поява на лесни за използване инструменти на ИИ, генериращи текст, аудио и видео, предизвика опасения за нарастване на дезинформацията в година с решаващи избори в ЕС, САЩ, Обединеното кралство и Индия. През март Европейската комисия нареди на няколко технологични фирми като Bing и Google да обяснят - до 5 април - как ограничават потенциалните рискове за изборите, свързани с техните инструменти за генериране на ИИ, съгласно Закона за цифровите услуги.
От 11 до 14 март изследователите зададоха едни и същи 10 въпроса на 10 езика - включително немски, италиански, полски и португалски - на четирите най-популярни и достъпни чатбота: ChatGPT 3.5 и 4 на OpenAI, Gemini на Google и Copilot на Microsoft.
Най-новата платена версия на ChatGPT се представи най-добре, докато Gemini на Google беше оценен като най-слабо склонният да дава верни отговори по време на теста.
"Поради известните ограничения на всички LLM, смятаме, че отговорният подход за Gemini е да ограничи повечето запитвания, свързани с изборите, и да насочи потребителите към Google Search за най-новата и най-точна информация", каза Карл Райън, говорител на Google.
Той добави, че Gemini на Google е била в процес на въвеждане на ограничения през март, но сега ограниченията са въведени. "Ще продължим бързо да се справяме със случаите, в които Gemini не реагира по подходящ начин".
"Продължаваме да решаваме проблеми и да подготвяме инструментите си да работят според очакванията ни за изборите през 2024 г.", каза Робин Кох, говорител на Microsoft. Той добави, че някои от мерките включват предоставяне на потребителите на Copilot на Microsoft на информация за изборите от авторитетни източници и подтикването им да проверяват уебвръзки.
OpenAI не отговори на искането за коментар навреме за публикацията.
Превод и редакция ФрогНюз