Top.Mail.Ru

ГК «Солар»: почти 2/3 компаний не контролируют утечки данных через ИИ

Служба новостей Автор статьи

Аналитики ГК «Солар», работающей в сфере комплексной кибербезопасности, изучили трафик 150 компаний из разных отраслей и выяснили, что за последний год объём данных, которые сотрудники отправляют в открытые ИИ-сервисы, увеличился примерно в 30 раз. При этом около 60% российских организаций до сих пор не используют формализованные правила работы с ИИ, что создаёт серьёзные риски. Массовое и неконтролируемое обращение к публичным нейросетям фактически стало новым скрытым каналом утечек и способом заражения инфраструктуры. Об этом Progorod59 рассказали в ГК «Солар».

Для специалистов по безопасности ИИ стал аналогом Shadow IT: сотрудники загружают в модели стратегические документы, код, таблицы и внутренние материалы. Злоумышленники тоже активно внедряют ИИ — например, перестройка DDoS-атаки теперь занимает не час, а минуту. Эксперты ожидают, что скоро появятся новые способы атак.

Проблема усиливается из-за того, что защитные решения не всегда успевают адаптироваться. Анастасия Хвещеник, руководитель продукта Solar webProxy, отмечает, что компании должны заранее контролировать поток данных. Она подчёркивает, что важным становится мониторинг самого канала взаимодействия с ИИ, который помогает предотвращать утечки и блокировать вредоносные или ложные ответы нейросетей.


Масштаб проблемы

По данным «Солара», сотрудники компаний из госсектора, финансовой сферы, промышленности, ритейла, e-commerce, телеком- и ИТ-индустрии всё чаще загружают в публичные ИИ-сервисы — такие как ChatGPT и Google Gemini — код, финансовые документы, юридические файлы и клиентские базы. Они делают это ради упрощения рабочих задач, но тем самым невольно создают риск утечек.
Исследование показывает, что около 46% всех конфиденциальных данных попадает именно в ChatGPT. При этом около 60% организаций не имеют никаких внутренних правил использования ИИ.

Другой анализ — от СберАналитики и Сбер Бизнес Софт — подтверждает, что генеративный ИИ стал обычным рабочим инструментом для российских ИТ-компаний. Его используют в разработке, поддержке клиентов, продажах и маркетинге. В 45% компаний уже появились специализированные отделы по ИИ.

Тенденция очевидна: активное использование нейросетей при отсутствии контроля превращает сотрудников в непреднамеренный фактор риска.


Примеры реальных инцидентов

Проблема касается не только рядовых сотрудников, но и управленцев. В США внутренние системы безопасности зафиксировали, что временный глава CISA Мадху Готтумуккала загрузил в публичный ChatGPT служебные документы, помеченные как «для официального использования». Это привело к расследованию на уровне Министерства внутренней безопасности.

В Samsung инженеры использовали ChatGPT для работы с кодом и транскрипциями совещаний. В результате части секретных данных оказались на серверах OpenAI. Компании пришлось срочно вводить ограничения и разрабатывать собственный закрытый ИИ.

Случай с чат-ботом Grok также показал уязвимость: поисковик Google проиндексировал сотни тысяч пользовательских бесед, включая запросы на генерацию паролей и инструкции по опасным действиям. Это произошло из-за функции «поделиться чатом», которая делала диалоги доступными для поисковых роботов.


ИИ как инструмент атак и защиты

Развитие больших языковых моделей привело к их активному использованию в кибератаках. Преступники автоматизируют фишинг, создают дипфейки, ускоряют поиск уязвимостей и генерацию вредоносного кода. Эксперты считают, что противостоять этому можно только с помощью аналогичных интеллектуальных технологий.

Анастасия Хвещеник отмечает, что современные решения должны не только блокировать угрозы, но и выявлять аномальные запросы, указывающие на попытки эксплуатации уязвимостей. Важную роль играют мониторинг API-взаимодействий, сегментация сетей и изоляция критичных систем.


Риски для разных отраслей

Проблема затрагивает почти все направления:

  • Финансовый сектор и страхование — повышенные риски утечки персональных данных и банковской тайны.

  • ИТ-компании и разработка ПО — опасность раскрытия исходного кода, логики систем и ключей доступа.

  • Промышленность — угрозы утечки технологий и информации о производственных процессах.

  • Ритейл и e-commerce — риски раскрытия данных о покупателях.

  • Госсектор — использование ИИ без формальных правил при очень жёстких требованиях к данным.

Проблема не в самой технологии, а в отсутствии прозрачности и механизмов управления. Полный запрет неэффективен: он снижает производительность и лишает сотрудников полезного инструмента. Решение — внедрение детальных политик безопасности, позволяющих контролировать обмен данными с ИИ, ограничивать использование отдельных моделей и блокировать потенциально опасные запросы и ответы.

Рекомендуем также:

  1. Хотите томаты уже в начале лета: обзор 15 лучших ранних сортов и гибридов для открытого грунта
  2. Проверки квартир станут строже уже с февраля: контролирующие службы получат новые основания для визитов
  3. Ягоды будут крупнее и слаще: как правильно подкармливать жимолость для рекордного урожая
  4. Пенсионеры со сбережениями оказались под угрозой: из-за накоплений могут лишить льгот и доплат
  5. Злые люди, змеи, грязь и ужасная еда: честный отзыв туристов об отдыхе в Абхазии, который многих разочаровал

Последние новости Перми уже в твоем телефоне - подписывайся на телеграм-канал «Пермь Новости»