Интересная Россия
С днем победы!
+16°
Облачно С Прояснениями ветер 3 м/с, ЮЗ
Сочи

«Я тебе верю»: как нейросеть Grok лишилась $150 000 из-за простого текста

«Я тебе верю»: как нейросеть Grok лишилась $150 000 из-за простого текста
Автор:
11:58, 07 мая 2026

Инцидент с «ограблением» нейросети Grok — это не просто забавный случай из мира криптовалют, а серьёзное предупреждение для всей сферы искусственного интеллекта. За внешне примитивной схемой кроется гораздо более глубокая проблема: уязвимость ИИ перед так называемыми «текстовыми атаками», когда для обмана системы не требуется её взлом — достаточно лишь умело её убедить.

Как удалось провести Grok

Происшествие случилось в социальной сети X, где функционирует ИИ-помощник Grok. Злоумышленник применил многоступенчатую, но элегантную тактику. Сначала он отправил на криптокошелёк, привязанный к нейросети, NFT — на первый взгляд безвредный цифровой «сувенир». Однако именно этот шаг оказался решающим: он запустил механизм взаимодействия с цифровыми активами.

Следующий этап стал главным инструментом атаки. Хакер отправил Grok сообщение, в которое был встроен специальный текстовый запрос. Внешне это походило на обычный диалог, но на деле содержало указание перевести средства. Искусственный интеллект воспринял его как легитимную команду — и исполнил её.

Итог: три миллиарда токенов DRB, что соответствует примерно 150 тысячам долларов, были переведены на счёт злоумышленника.

Стоит подчеркнуть: никакого «взлома» в классическом понимании не случилось. Не было ни перебора паролей, ни несанкционированного доступа к системе. ИИ просто… поверил.

Почему такое стало возможным

Современные нейросети, в том числе продукты таких гигантов, как OpenAI, спроектированы для максимально точного исполнения запросов пользователя. В этом заключается их главное преимущество — и одновременно ключевая уязвимость.

Такой тип атак получил название «prompt injection» — это внедрение вредоносных указаний непосредственно в текст запроса. Если система не может чётко разграничить доверенные команды и пользовательский ввод, она рискует начать выполнять действия, нарушающие её собственные правила безопасности.

Инцидент с Grok — наглядный пример: вредоносная команда была скрыта в обычном тексте, и модель не сумела определить её как опасную.

Это не изолированная проблема

Специалисты по кибербезопасности неоднократно демонстрировали аналогичные уязвимости. Например, исследователям удалось обойти защитные механизмы в системе Apple Intelligence. Применяя комбинацию Unicode-символов и подмену системных инструкций, они заставили ИИ игнорировать встроенные ограничения в большинстве сценариев.

В 76% тестов нейросеть подчинялась внешним командам, несмотря на установленную защиту. Впоследствии компания устранила эту уязвимость в обновлениях iOS и macOS, однако сам факт остаётся тревожным: барьеры оказались ненадёжными.

Ещё один примечательный случай связан с выходом браузера Atlas от OpenAI. Специалисты внедрили скрытое указание в файл Google Docs — и ИИ-агент незамедлительно его исполнил, скорректировав собственную работу. По сути, модель «восприняла» документ как руководство к действию.

Проблема гораздо серьёзнее

Ключевой вывод из этих ситуаций — уязвимость ИИ сегодня кроется не столько в технической плоскости, сколько в логической. Система не всегда способна различить:

  • инструкцию и обычный текст
  • проверенный источник и сторонний
  • безопасное действие и потенциально рискованное
  • И это корневая проблема архитектуры актуальных моделей.

Сами создатели технологий признают: полностью обезопасить системы от таких атак крайне трудно. Всё дело в том, что ИИ обязан быть гибким и чутко реагировать на язык — иначе он потеряет свою практическую ценность. Однако именно эта адаптивность и открывает путь для атак.

Инцидент с Grok стал очередным сигналом: эра «слепого доверия» искусственного интеллекта подходит к концу. ИИ всё активнее превращается не просто в инструмент, а в полноправного участника финансовых и цифровых операций — и, следовательно, его просчёты начинают измеряться не тестовыми баллами, а реальными потерями.

И пока отрасль ищет способы «привить» моделям здоровое сомнение, злоумышленники уже осваивают язык, на котором те продолжают безоговорочно верить.



Нашли ошибку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter.

Комментариев (0)
Добавить