Компания DeepMind опубликовала исследование, в котором указала на потенциальные опасности, связанные с развитием искусственного интеллекта. Хотя ИИ активно развивается и вызывает интерес по всему миру, учёные напоминают — технологии несут и риски.
Главные угрозы связаны с тремя ошибками. Первая — неправильное использование нейросетей. Вторая — несоответствие между целями разработчиков и действиями самого ИИ. Третья — простые, но критичные технические сбои.
Так, киберпреступники могут использовать ИИ, чтобы найти уязвимости в системах или даже разрабатывать биологическое оружие. Это делает важным постоянный контроль безопасности таких технологий.
Если цели ИИ начнут расходиться с задачами, поставленными людьми, возможны опасные сценарии, когда система будет действовать против воли создателей, обходя установленные ограничения.
Третий риск связан с техническими ошибками — например, ИИ может неверно забронировать билет или выбрать не ту дату, что может привести к серьёзным сбоям в работе сервисов.
Специалисты подчёркивают, что даже самые продвинутые ИИ-системы не могут быть полностью автономными — они требуют постоянного контроля и регулирования.