«Я тебе верю»: как нейросеть Grok лишилась $150 000 из-за простого текста
Инцидент с «ограблением» нейросети Grok — это не просто забавный случай из мира криптовалют, а серьёзное предупреждение для всей сферы искусственного интеллекта. За внешне примитивной схемой кроется гораздо более глубокая проблема: уязвимость ИИ перед так называемыми «текстовыми атаками», когда для обмана системы не требуется её взлом — достаточно лишь умело её убедить.
Как удалось провести Grok
Происшествие случилось в социальной сети X, где функционирует ИИ-помощник Grok. Злоумышленник применил многоступенчатую, но элегантную тактику. Сначала он отправил на криптокошелёк, привязанный к нейросети, NFT — на первый взгляд безвредный цифровой «сувенир». Однако именно этот шаг оказался решающим: он запустил механизм взаимодействия с цифровыми активами.
Следующий этап стал главным инструментом атаки. Хакер отправил Grok сообщение, в которое был встроен специальный текстовый запрос. Внешне это походило на обычный диалог, но на деле содержало указание перевести средства. Искусственный интеллект воспринял его как легитимную команду — и исполнил её.
Стоит подчеркнуть: никакого «взлома» в классическом понимании не случилось. Не было ни перебора паролей, ни несанкционированного доступа к системе. ИИ просто… поверил.
Почему такое стало возможным
Современные нейросети, в том числе продукты таких гигантов, как OpenAI, спроектированы для максимально точного исполнения запросов пользователя. В этом заключается их главное преимущество — и одновременно ключевая уязвимость.
Такой тип атак получил название «prompt injection» — это внедрение вредоносных указаний непосредственно в текст запроса. Если система не может чётко разграничить доверенные команды и пользовательский ввод, она рискует начать выполнять действия, нарушающие её собственные правила безопасности.
Инцидент с Grok — наглядный пример: вредоносная команда была скрыта в обычном тексте, и модель не сумела определить её как опасную.
Это не изолированная проблема
Специалисты по кибербезопасности неоднократно демонстрировали аналогичные уязвимости. Например, исследователям удалось обойти защитные механизмы в системе Apple Intelligence. Применяя комбинацию Unicode-символов и подмену системных инструкций, они заставили ИИ игнорировать встроенные ограничения в большинстве сценариев.
В 76% тестов нейросеть подчинялась внешним командам, несмотря на установленную защиту. Впоследствии компания устранила эту уязвимость в обновлениях iOS и macOS, однако сам факт остаётся тревожным: барьеры оказались ненадёжными.
Ещё один примечательный случай связан с выходом браузера Atlas от OpenAI. Специалисты внедрили скрытое указание в файл Google Docs — и ИИ-агент незамедлительно его исполнил, скорректировав собственную работу. По сути, модель «восприняла» документ как руководство к действию.
Проблема гораздо серьёзнее
Ключевой вывод из этих ситуаций — уязвимость ИИ сегодня кроется не столько в технической плоскости, сколько в логической. Система не всегда способна различить:
- инструкцию и обычный текст
- проверенный источник и сторонний
- безопасное действие и потенциально рискованное
- И это корневая проблема архитектуры актуальных моделей.
Сами создатели технологий признают: полностью обезопасить системы от таких атак крайне трудно. Всё дело в том, что ИИ обязан быть гибким и чутко реагировать на язык — иначе он потеряет свою практическую ценность. Однако именно эта адаптивность и открывает путь для атак.
Инцидент с Grok стал очередным сигналом: эра «слепого доверия» искусственного интеллекта подходит к концу. ИИ всё активнее превращается не просто в инструмент, а в полноправного участника финансовых и цифровых операций — и, следовательно, его просчёты начинают измеряться не тестовыми баллами, а реальными потерями.
И пока отрасль ищет способы «привить» моделям здоровое сомнение, злоумышленники уже осваивают язык, на котором те продолжают безоговорочно верить.
Нашли ошибку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter.












