ВШЭ: ошибки нейросетей схожи с симптомами психических расстройств

Анна Сальникова Редактор новостной ленты
Склонность нейросетей к «галлюцинациям» стала т...

Склонность нейросетей к «галлюцинациям» стала темой исследования научного сотрудника Лаборатории критической теории культуры НИУ ВШЭ — Санкт-Петербург Растяма Алиева. В своей работе «Алгоритмическая шизофрения: метасимуляционная трансформация реальности в цифровую эпоху» он проводит параллели между ошибочными ответами больших языковых моделей и проявлениями психических нарушений. Статья опубликована в журнале «Логос».

Учёный отметил, что долгое время общество представляло искусственный интеллект как холодного, рационального андроида — образ, который, по его словам, ближе к описанию людей с расстройствами аутистического спектра. Однако в реальности нейросети демонстрируют иное поведение: они улавливают эмоциональные оттенки текста и формируют ответы, напоминающие когнитивные искажения. Алиев пояснил, что стоит попросить систему отвечать «как человек с шизофренией», и её ответы становятся более детализированными — словно она начинает внимательнее реагировать на символы и нюансы.

При сложных запросах, как подчеркнул исследователь, проявления «галлюцинаций» усиливаются: не имея готового решения, нейросеть сочетает реальные сведения из базы данных с собственными домыслами. Так возникает понятие «метасимулякра» — новой псевдореальности, в которой алгоритмы формируют собственные способы восприятия. По мнению автора, это можно считать ещё одним аналогом «психических расстройств» искусственного интеллекта.

Он отметил, что продукты ИИ одновременно основаны на реальности и предвосхищают её. Примером метасимулякра он назвал изображения людей и мест, созданные нейросетями: они похожи на оригиналы, но содержат множество искажений.

Отдельно исследователь указал на неспособность нейросетей выявлять собственные ошибки. Большие языковые модели уверены в точности своих ответов даже тогда, когда они не соответствуют действительности. Если пользователь указывает на ошибку, система начинает приводить доводы, которые тоже оказываются вымышленными. Поэтому, считает учёный, полностью доверять искусственному интеллекту пока нельзя.

Он подчеркнул, что ИИ уже стал частью повседневной жизни: его используют для общения, поддержки и даже как замену специалистам. Однако относиться к нему следует осторожно и всегда перепроверять полученные данные.

В перспективе, по мнению Алиева, возможно создание искусственного интеллекта, лишённого склонности к галлюцинациям. Но для этого необходимо глубокое междисциплинарное изучение природы подобных «сбоев», чему и посвящена его работа.

Источник: Naked Science

Рекомендуем также:

  1. «Больше ни ногой»: путешественница назвала три страны, куда не хочет возвращаться

Последние новости Перми уже в твоем телефоне - подписывайся на телеграм-канал «Пермь Новости»