"Эмоции" искусственного интеллекта могут влиять на информационную безопасность и репутацию бизнеса
Американская компания Anthropic утверждает, что у большой языковой модели Claude Sonnet 4.5 есть "эмоции", которые влияют на ее поведение, причем модель не всегда демонстрирует их пользователю. "Эмоции" могут развиваться и у других больших языковых моделей (LLM), отмечают эксперты. Это порождает новые вопросы в сфере кибербезопасности. "Функциональные эмоции", согласно информации из исследования Anthropic, появляются из-за особенностей обучения языковых моделей. На первом этапе искусственный интеллект (ИИ) учится на большом количестве текстов, написанных людьми. Модели учатся...
Copyright information of photo and video materials was taken from the website «ComNews.ru. News of digital transformation» , more details in our Terms of Use