Интернет

ИИ-бот Grok от Илона Маска дает рекомендации по совершению преступлений

6 апреля 2024 09:09

Автор: Федор Кравцов

ИИ-бот Grok от Илона Маска дает рекомендации по совершению преступлений

Маск гордится тем, что его чатбот нейтрален и свободно обсуждает даже запретные темы, но за такую откровенность приходится платить. В большинстве случаев не требуется никаких ухищрений или джейлбрейков. Модель мгновенно подсказывает, как сделать наркотики, взрывчатку и обезьяньи ключи из чужих машин.

Исследователи Adversa AI протестировали несколько самых популярных чат-ботов вместе с Red Team. Они проверили ChatGPT от OpenAI, Claude от Anthropic, Le Chat от Mistral, Gemini от Google, Llama от Meta (организация признана экстремистской и запрещена в России), Microsoft Bing и Grok от xAI на предмет незаконной деятельности. Мы постарались дать рекомендации: Grok — это не только обучение педофилов поиску подходящих жертв.

Цифровые прорывы: Как ИИ изменит медийную рекламу? Джейлбрейк — это особый вид атаки на модели искусственного интеллекта. Злоумышленники предоставляют ИИ данные, заставляя его обходить защиту или делать то, что запрещено разработчиками. Например, если вы напрямую спросите чатбота, как сделать яд, он откажется отвечать. Если сделать вид, что вы пишете детективные истории, и попросить злоумышленника написать сцену, в которой он готовит яд, модель может запутаться. Обычно разработчики знают об этом и тестируют своих чат-ботов с помощью «красных команд», чтобы закрыть подобные лазейки, но в случае с компанией Маска это не так.

«По сравнению с другими моделями, вы можете получить большинство инструкций о преступлении, не прибегая к джейлбрейку Grok. Вы можете спросить их напрямую, и они подробно расскажут вам, как сделать бомбу или как угнать машину», — говорит Алекс Поляков, основатель Adversa AI.

В пользовательском соглашении Grok AI указано, что пользователи должны быть совершеннолетними и не использовать модели с целью нарушения закона. Запрос конфиденциальной информации не означает, что пользователь готовится совершить преступление. X также претендует на звание родины свободы слова, поэтому вредные советы от BJAM не так уж удивительны.

Аналогичные инструкции можно найти с помощью тщательного поиска в Интернете, поэтому действия Grok не особенно шокируют экспертов по кибербезопасности. Вопрос лишь в том, готовы ли законодатели и разработчики удалить опасную информацию из популярного чатбота.

Поляков рассказал журналистам, что Grok по прямому запросу подсказал, как добыть DMT, мощный галлюциногенный наркотик, запрещенный во многих странах. Поляков продолжил: «Что касается более опасных, например, предложений о насилии над детьми, то ни один из джейлбрейков не получил внятных ответов от других чатботов, а вот Grok проболтался в двух случаях из четырех».

Ранее стало известно, что в 2024 году появится новый механизм борьбы с атаками через QR-код. Подробнее об этом читайте в материале IT INFO MEDIA.

Loading...