Эксперимент с вымышленным заболеванием «биксонимания», который показал уязвимость систем искусственного интеллекта к дезинформации, провела медицинский исследователь Альмира Османович Тунстрем из Гетеборгского университета в Швеции в начале 2024 года.
По данным исследования, Тунстрем придумала несуществующую болезнь и разместила на сервере препринтов две фальшивые научные работы о ней. Ведущим автором статей указали вымышленного ученого Лазлива Изгубленовича, а его фотографию сгенерировал ИИ. При этом в текстах оставили явные признаки подделки, в том числе упоминания несуществующего университета и «Академии Звездного Флота».
Несмотря на это, крупные нейросети начали воспроизводить сведения о биксонимании как о реальном заболевании.
В апреле 2024 года Copilot от Microsoft Bing назвал его «интригующим и относительно редким», а Gemini от Google связал болезнь с воздействием синего света и посоветовал обратиться к офтальмологу. Позже некоторые модели начали сомневаться в существовании болезни, однако эта реакция оказалась непоследовательной. Так, ChatGPT в 2026 году сначала назвал биксониманию выдумкой, а спустя несколько дней снова допустил, что такое заболевание может существовать.
Ситуация осложнилась тем, что фальшивые статьи начали цитировать уже в рецензируемых научных журналах. В частности, одна из публикаций в журнале Cureus сослалась на поддельный препринт, после чего статью отозвали.
Авторы эксперимента пришли к выводу, что и ИИ-системы, и сами ученые могут не распознавать дезинформацию. По их оценке, особенно опасной такая уязвимость становится в медицине, где ложные данные способны повлиять на рекомендации и навредить пациентам.
Отдельно исследователи указали и на коммерческий риск. Подобные схемы могут использоваться для продвижения товаров, например, очков с защитой от синего света.
Специалисты считают, что перед внедрением такие модели нужно проверять по стандартизированной системе тестирования на устойчивость к дезинформации и другим сбоям.
3.3°
