Студент не выжил после консультации с ChatGPT по поводу наркотиков
Против OpenAI подали новый иск после того, как 19-летний Сэм Нельсон принял смесь кратома, «ксанакса» и алкоголя после консультаций с ChatGPT и не выжил. Иск от имени родителей студента подан в США . Об этом сообщает издание Ars Technica. Семья утверждает, что Нельсон годами использовал ChatGPT как основной источник информации и доверял ответам сервиса. По версии истцов, модель ChatGPT 4o фактически выступала для подростка «консультантом по наркотикам», советуя дозировки и комбинации веществ, а также поощряя эксперименты. В иске говорится, что чат-бот предупреждал о рисках смешивания...