Риски, связанные с AI-ассистентами
Недавно произошли несколько инцидентов, связанных с AI-ассистентами, которые имеют доступ к конфиденциальным данным и могут выполнять задачи без надлежащего контроля. Эти инциденты привлекли внимание экспертов по безопасности, которые предупреждают о потенциальных рисках, связанных с использованием таких ассистентов. Особенно это актуально для организаций, где неадекватная безопасность может иметь серьезные последствия.
Подробности
Одним из наиболее популярных AI-ассистентов является OpenClaw (ранее известный как ClawdBot и Moltbot), который увидел широкое внедрение после своего выпуска в ноябре 2025 года. OpenClaw - это açık-исходный автономный AI-агент, предназначенный для запуска на локальном компьютере и принятия действий от имени пользователя без необходимости прямых указаний. Это означает, что OpenClaw имеет доступ ко всем данным пользователя, что может быть как полезным, так и потенциально опасным. Другие AI-ассистенты, такие как Anthropic's Claude и Microsoft's Copilot, также могут выполнять подобные действия, но OpenClaw отличается своей 능ностью принимать инициативу на основе имеющихся данных.Что делать
Чтобы минимизировать потенциальные риски, связанные с AI-ассистентами, эксперты рекомендуют организациям принять меры для обеспечения безопасности своих систем и данных. Это включает в себя реализацию мер Multi-Factor Authentication (MFA), шифрования данных с помощью протоколов TLS и ограничение доступа к чувствительным данным при помощи VPN. Кроме того, важно регулярно обновлять программное обеспечение и проводить аудиты безопасности для выявления потенциальных уязвимостей, таких как CVE, RCE, XSS. Итог: использование AI-ассистентов может быть полезным, но важно помнить о потенциальных рисках и принимать меры для их минимизации. Правильная настройка и контроль AI-ассистентов могут帮助 предотвратить инциденты безопасности и обеспечить целостность данных.Источник: Krebs on Security
