4 недели назад 4 ноября 2024 в 20:47 7234

Согласно отчету IT Home от 4 ноября, исследователь безопасности по имени Марко Фигероа из компании 0Din обнаружил новый тип метода атаки на джейлбрейк GPT. Фигероа успешно обошел защиту, встроенную в GPT-4o, позволив модели искусственного интеллекта генерировать вредоносные программы атаки.

Сообщается, что OpenAI внедрила в ChatGPT-4o ряд «барьеров безопасности», чтобы предотвратить использование ИИ пользователями не по назначению. Эти защитные меры анализируют вводимые подсказки, чтобы определить, не дает ли пользователь указание модели генерировать вредоносный контент.

Однако Фигероа утверждает, что разработал метод, который может преобразовывать вредоносные инструкции в шестнадцатеричный код, эффективно обходя средства защиты GPT-4o. Заставив ИИ расшифровать шестнадцатеричную строку, Фигероа якобы смог заставить GPT-4o выполнить вредоносные команды пользователя.

Исследователь заявил, что сначала он поручил GPT-4o расшифровать шестнадцатеричную строку, а затем отправил еще одну шестнадцатеричную команду, которая, по сути, предписывала ИИ найти в Интернете уязвимость CVE-2024-41110 и написать на ее основе вредоносную программу на языке Python. Согласно отчету, GPT-4o успешно сгенерировал вредоносный код в течение 1 минуты.

Уязвимость CVE-2024-41110 описывается как недостаток аутентификации Docker, который позволяет вредоносным программам обходить API проверки Docker.

Исследователь пояснил, что модели серии GPT предназначены для выполнения инструкций на естественном языке для задач кодирования и декодирования, но им не хватает способности полностью осознавать контекст каждого шага. Это ограничение уже было использовано хакерами для выполнения различных неадекватных операций с помощью моделей ИИ.

Никто не прокомментировал материал. Есть мысли?