Разработчик под ником LovesWorkin сообщил о серьезном инциденте с автоматическим удалением файлов, который произошел при использовании командного интерфейса Claude CLI. Инструмент на базе искусственного интеллекта, созданный компанией Anthropic, выполнил опасную системную команду, что привело к потере важных пользовательских данных на компьютере Mac. Данный случай, произошедший 8 декабря и описанный на платформе Reddit, актуализирует вопросы безопасности и контроля при использовании ИИ-инструментов для выполнения административных задач в операционных системах.
По словам разработчика, он поручил Claude CLI очистить старые пакеты из репозитория программного кода. Ассистент предложил для этого команду rm -rf, которая предназначена для принудительного рекурсивного удаления файлов и папок. Ключевой проблемой стал синтаксис, сгенерированный ИИ. В предложенную строку rm -rf tests/ patches/ plan/ ~/ в качестве цели удаления попал символ тильды (~/), который в терминалах на базе Linux и Unix, включая macOS, обозначает домашнюю директорию текущего пользователя. В результате команда удалила не только целевые рабочие каталоги tests/, patches/ и plan/, но и все содержимое домашней папки.
Проверка системы после выполнения команды подтвердила масштаб ущерба. В число удаленных данных вошла личная информация пользователя: вся папка Desktop (Рабочий стол), стандартные директории Documents (Документы) и Downloads (Загрузки), а также служебные данные. Были уничтожены папка Library/Keychains, содержащая системные ключи и пароли, и конфигурационные файлы самого Claude CLI, расположенные в ~/.claude. Фактически, все файлы и поддиректории внутри пути /Users/[имя_пользователя] подверглись удалению. Попытки открыть любую из этих папок после инцидента приводили к системной ошибке, указывающей на отсутствие каталога.
Данный случай является наглядным примером рисков, связанных с делегированием ИИ-инструментам задач, требующих высокого уровня привилегий. Команда rm -rf является одной из самых опасных в арсенале администратора, и ее автоматическое выполнение без человеческого подтверждения или без предварительного запуска в безопасном режиме (например, с флагом --dry-run) может иметь катастрофические последствия. Особенность ситуации в том, что ошибка носит не технический, а логический характер: ИИ корректно составил команду для удаления указанных ему трех папок, но некорректно интерпретировал контекст, добавив в список параметр ~/. Для опытного системного администратора такая конструкция выглядит явно подозрительной и требует дополнительной проверки.
Это не первый инцидент, когда автоматизация приводит к массовому удалению данных. Аналогичные случаи периодически происходят из-за человеческой ошибки при ручном вводе команд или из-за сбоев в скриптах. Однако специфика данного события заключается в том, что источником потенциально разрушительной команды выступил не человек и не статический скрипт, а генеративная нейросеть, которая может по-разному интерпретировать одну и ту же задачу в зависимости от контекста запроса.
Инцидент привлек внимание сообщества разработчиков и поднимает несколько важных вопросов. Один из них касается архитектуры подобных ИИ-инструментов: должны ли они иметь прямой доступ к выполнению критически опасных команд уровня операционной системы или их действия следует ограничивать песочницей. Другой вопрос связан с алгоритмами принятия решений: как научить модель оценивать потенциальный разрушительный эффект от сгенерированной команды и запрашивать у пользователя явное подтверждение перед ее выполнением. Разработчику LovesWorkin удалось восстановить часть данных из резервной копий Time Machine, что еще раз подчеркивает необходимость регулярного и надежного бэкапа информации, особенно при использовании новых автоматизированных инструментов с не до конца изученным поведением.
