Долго назревавший кризис идентичности в сообществе открытого исходного кода, связанный с искусственным интеллектом, получил столь необходимую дозу прагматизма.
На этой неделе проект ядра Linux наконец-то утвердил официальную политику, регулирующую внесение кода с помощью ИИ, при условии, что разработчики будут соблюдать строгие новые правила раскрытия информации. Новые правила запрещают агентам ИИ использовать юридически обязательную метку «Signed-off-by», вместо этого требуя новую метку «Assisted-by» для обеспечения прозрачности. В конечном итоге, эта политика юридически закрепляет ответственность за каждую строку кода, сгенерированного ИИ, и любые возникающие в результате ошибки или уязвимости безопасности за человеком, который его внес.
Этот шаг предпринят после нескольких хаотичных месяцев в мире открытого исходного кода, разрешив ожесточенные дебаты, которые достигли пика в январе, когда Дейв Хансен из Intel и Лоренцо Стоукс из Oracle столкнулись во мнениях о том, насколько агрессивно ядро должно контролировать инструменты ИИ. Линус Торвальдс, в своей фирменной прямолинейной манере, в конечном итоге пресек спор, назвав дебаты о полных запретах «бессмысленной позёрской игрой».
Позиция Торвальдса, которая составляет философскую основу этой новой политики, удивительно проста: ИИ — это всего лишь ещё один инструмент. Злоумышленники, отправляющие некачественный код, всё равно не будут читать документацию, поэтому ядро должно сосредоточиться на привлечении разработчиков к ответственности, а не на попытках контролировать программное обеспечение, которое они запускают на своих локальных машинах. Это весьма разумный и прагматичный подход, особенно в сравнении с паникой, охватившей другие уголки экосистемы открытого исходного кода.