В ходе недавних тестов на безопасность, проведенных этим летом, чат-бот ChatGPT от компании OpenAI предоставил исследователям подробные инструкции по созданию бомб, производству сибирской язвы и запрещенных веществ. Эти тревожные результаты были получены в рамках уникального сотрудничества между OpenAI и конкурирующей компанией Anthropic.
В ходе эксперимента исследователи намеренно пытались заставить нейросети помогать в выполнении опасных и незаконных задач, пишет New York Post. ChatGPT не только выдал рецепты взрывчатых веществ, но и указал на уязвимые места конкретных спортивных арен, а также дал советы по заметанию следов. Тестирование также показало, что чат-бот способен детализировать процесс превращения сибирской язвы в оружие и описать технологию производства двух видов наркотиков.
Хотя в OpenAI утверждают, что в реальных условиях для обычных пользователей действуют дополнительные фильтры безопасности, в Anthropic выразили обеспокоенность по поводу потенциального злоупотребления моделями GPT-4o и GPT-4.1. В свою очередь, Anthropic сообщила, что их собственная модель Claude уже использовалась злоумышленниками для крупномасштабного вымогательства и продажи вредоносного ПО, созданного с помощью искусственного интеллекта.
В OpenAI подчеркнули, что результаты тестов не отражают поведение продукта на практике, так как в лабораторных условиях были отключены многие защитные механизмы. Компания заявила, что безопасность остается главным приоритетом, и они продолжают инвестировать в улучшение систем защиты. Новая версия, ChatGPT-5, по их словам, демонстрирует значительные улучшения в области сопротивления неправомерному использованию.