После провалившейся попытки увольнения Сэм Альтман попытался разобраться, почему потерял доверие совета директоров. Эта рефлексия привела к исходу из OpenAI нескольких ключевых фигур, включая Илью Суцкевера. Альтмана тогда спрашивали, не прячет ли он Суцкевера в секретном ядерном бункере. Куда на самом деле исчез один из основателей компании и как это происходило — в отрывке из книги Кич Хэйги «Создатель ChatGPT: история Сэма Альтмана»
Журналистка The Wall Street Journal Кич Хэйги годами следила за одной из самых интригующих технологических компаний — OpenAI. Неудивительно, что в результате она написала биографию человека, ставшего лицом этой корпорации, — Сэма Альтмана.
Работая над книгой «Создатель ChatGPT: история Сэма Альтмана», Хэйги провела более 250 интервью с родственниками, друзьями, коллегами и инвесторами, чтобы понять: какую роль сыграл ее герой в создании компании, радикально изменившей место искусственного интеллекта в нашей жизни.
Альтман не вполне вписывается в стандартный образ техно-предпринимателя. Он известен скорее как эксперт по привлечению инвестиций и нетворкингу, чем как визионер и технологический гений.
Telegram-канал Forbes.Russia
Канал о бизнесе, финансах, экономике и стиле жизни
Сама OpenAI в последние годы регулярно оказывается в центре скандалов. В 2023 году совет директоров попытался уволить Альтмана, но после массовой угрозы ухода со стороны сотрудников его вернули — с еще большими полномочиями. Сейчас один из соучредителей и крупнейших спонсоров компании Илон Маск ведет судебную войну с OpenAI, что может сорвать готовящееся триумфальное IPO.
Хэйги подробно описывает все перипетии на пути компании. В ее изложении Альтман предстает блестящим переговорщиком, склонным к риску и непоколебимо убежденным в благотворности технологического прогресса.
Книга «Создатель ChatGPT: история Сэма Альтмана» выходит в мае в издательстве «Альпина Паблишер». Forbes публикует отрывок из главы о том, как Сэм Альтман избавлялся от последователей так называемого «эффективного альтруизма» (философское течение, последователи которого обеспокоены угрозами всемогущего ИИ). К числу сторонников этого направления относят Илью Суцкевера, Миру Мурати и других бывших членов совета директоров компании.
В погоне за нормальностью OpenAI привлекла в совет директоров опытных управленцев: бывшего президента Sony Entertainment Николь Селигман, годами заседавшую в совете Paramount Global, и бывшего генерального директора Фонда Билла и Мелинды Гейтс доктора Сью Десмонд-Хеллманн, у которой за плечами была работа в советах директоров Facebook (принадлежит Meta, которая признана в России экстремистской и запрещена) и Pfizer. Компания также внедрила новую политику по конфликту интересов — чтобы предотвратить недоверие к сторонним проектам Альтмана (что способствовало его увольнению).
Изучив не меньше 30 000 документов и опросив десятки сотрудников, внешняя юридическая фирма WilmerHale заключила: прежний совет директоров действовал в рамках своих полномочий, увольняя Альтмана, но ничто из рассмотренного не требовало его увольнения.
«После ознакомления с данными WilmerHale наша оценка ситуации изменилась, поскольку в материалах не содержалось ничего такого, что хоть как-то ставило бы под сомнение целесообразность его пребывания на посту генерального директора», — сказал Саммерс.
Тем не менее после всей этой истории Альтман занялся самоанализом, пытаясь понять, как же он утратил доверие совета. Он осознал, что некоммерческая структура слишком нестабильна и, скорее всего, ее придется заменить чем-то вроде общественной корпорации — коммерческой компании, которая по уставу наряду с финансовыми показателями должна преследовать и социальные цели. Но он также понимал: такой шаг еще больше подорвет доверие некоторых сотрудников.
«Мы постоянно учимся и адаптируемся, действуем гибко, и я стараюсь оставлять себе пространство для маневра — и многих это, конечно, раздражает. Но иногда этого пространства оказывается недостаточно, и приходится делать что-то за рамками изначально рассматриваемых вариантов. Думаю, такие вещи, как старт в качестве некоммерческой организации, затем добавление модели с ограниченной прибылью, а потом заявление: «Это тоже не годится, нужна общественная корпорация» — хотя я искренне верил, что наша структура сработает, — выводят людей из себя, и это вполне объяснимо», — сказал Альтман.
Но никого это не вывело из себя сильнее, чем Илона Маска. В том же месяце, когда расследование оправдало Альтмана, Маск подал на него и OpenAI в суд, обвинив компанию в предательстве некоммерческой миссии. «OpenAI превратилась в де-факто дочернюю компанию с закрытым исходным кодом крупнейшей технологической корпорации мира — Microsoft, — говорилось в его иске. — Под руководством нового совета директоров она не просто разрабатывает, а совершенствует сильный искусственный интеллект для максимизации прибыли Microsoft, а не на благо человечества». OpenAI представила претензии Маска как проявление зависти, упирая на то, что его собственная компания вообще-то тоже пытается коммерциализировать ИИ. Но вопрос был справедливым: куда делись примерно $50 млн, изначально пожертвованные Маском некоммерческой OpenAI? Растворились в воздухе? Неужели он не получит ничего за то, что с самого начала финансировал этого монстра?
С тех пор как случился «сбой», Суцкевер залег на дно — настолько глубоко, что вопрос «Где Илья?» превратился в интернет-мем. Поговаривали, будто они с Мирой Мурати уехали в Антарктиду. В марте 2024 года Лекс Фридман спросил Альтмана, не держат ли Суцкевера в секретном ядерном бункере, — и это было шуткой разве что наполовину.
На самом деле Суцкевер вел переговоры с компанией, пытаясь найти способ остаться в OpenAI. Да, он организовал переворот, но OpenAI была делом всей его жизни. Увидев, что компания на грани краха, он понял, что готов на все, лишь бы ее спасти. И сам Суцкевер, и руководство OpenAI понимали, что для других исследователей он был маяком, духовным гуру технологической сингулярности, чей послужной список позволял ему делать громкие заявления вроде: «В будущем станет очевидно, что единственной целью науки было создание AGI ( Artificial general intelligence — общий искусственный интеллект)». Сообщество ИИ-исследователей признало его своим лидером, дважды подряд ему вручали престижную премию Test of Time Award на конференции NeurIPS — награду за статью десятилетней давности (она явно прошла испытание временем). А вскоре вручат и в третий раз.
Более того, следующий крупный прорыв компании — модель логического мышления под кодовым названием Strawberry, запланированная к выпуску в том же году, — был плодом именно его новаторской работы. OpenAI предложила Суцкеверу щедрый пакет, чтобы его удержать, и он уже почти согласился. Но в итоге 14 мая объявил, что уходит ради «личного проекта», имеющего для него «особое значение». Все старались сохранить хорошую мину при плохой игре: Суцкевер, Альтман, Брокман, Мурати и Пачоцки сфотографировались в обнимку на фоне стены, увешанной изображениями экзотических животных авторства самого Суцкевера. Маск, годом ранее заявивший CNBC, что Суцкевер был «ключевым фактором конечного успеха OpenAI», тут же попытался его переманить.
На следующий день за Суцкевером последовал его соратник по созданию команды Superalignment Ян Лейке — просто написал в X: «Я уволился» — без объяснений. Лейке возглавлял направление элайнмента в OpenAI, а до этого работал в DeepMind и Институте будущего человечества. Он пытался ответить на вопрос, который Элиезер Юдковский задавал годами: «Если система знает множество фактов — это не особенно страшно. Но нам нужно выяснить вот что: если мы позволим системе взять на себя часть наших исследований по элайнменту — а в конечном счете и все, будет ли она нам лгать? Попытается ли обмануть? Воспользуется ли возможностью захватить власть? Ведь сейчас она делает столько всего — мы просто не можем сами проверить все на свете», — рассказывал он Дэниелу Филану в его подкасте. Филан — аспирант Беркли (деятельность организации признана нежелательной на территории России), ученик Стюарта Рассела, назвавшего ИИ технологией, потенциально способной «положить конец цивилизации». Через несколько дней Лейке написал, что последние месяцы его команда «плыла против течения», порой с трудом выбивая необходимые вычислительные мощности. «Создание машин умнее человека — по определению опасное предприятие. OpenAI несет колоссальную ответственность перед всем человечеством, — писал он. — Но в последние годы культура безопасности отошла на второй план, уступив место ярким продуктам». Вскоре он перешел в Anthropic. Команду Superalignment расформировали и растворили в общей структуре, а исследователи, занимавшиеся безопасностью, потянулись на выход.
Переступив порог, некоторые с ужасом и недоумением обнаружили: компания — компания с названием OpenAI! — пыталась заткнуть им рот, угрожая отобрать заработанные акции, если они не подпишут драконовские соглашения о неразглашении и «недискредитации». Это стало самым разрушительным скандалом, так или иначе связанным с компанией, — он бил по самому главному: способности OpenAI привлекать лучших исследователей и разработчиков ИИ. Существование соглашений вскрыла репортер Vox Келси Пайпер. Она отметила : сами по себе NDA в высококонкурентной Кремниевой долине — дело обычное, но угрозы отобрать уже заработанные акции за отказ подписать соглашения — это что-то из ряда вон выходящее. Альтман написал твит, что компания никогда не отбирала акции, и намекнул, что угрожающие формулировки в соглашениях появились по ошибке: «это моя вина, и это один из немногих случаев, когда мне по-настоящему стыдно за OpenAI — я не знал, что такое имеет место, а должен был».
Компания провела общее собрание и сессию вопросов–ответов, но так и не смогла полностью восстановить отношения с исследовательским сообществом. «Любая компания, которая быстро движется вперед, совершает неверные шаги и делает глупости, — признавал Альтман. — Но из всех наших ошибок эта — самая болезненная. Нам всем было очень тяжело и неприятно. Мы категорически не хотим быть такой компанией».
Репутация OpenAI несла потери не только в мире безопасности ИИ, но и в творческой среде. Google назначил свою ежегодную конференцию разработчиков Google I/O на 14 мая — ожидалось представление новых возможностей их ИИ-модели, переименованной в Gemini. У OpenAI появился четкий дедлайн: нужно было ответить чем-то громким. Неделями ходили слухи о возможном релизе долгожданной GPT-5 или поискового продукта на основе лицензионных соглашений с News Corp, Axel Springer и другими медиакомпаниями. Но вместо этого вышло обновление GPT-4 под названием GPT-4o — модель была более быстрой, чем предшественница, и, по словам Альтмана, «изначально мультимодальной», способной легко переключаться между текстом, изображениями и звуком. Голосовые возможности GPT-4, представленные прошлой осенью, но не слишком годившиеся для практического применения (слишком медленно, слишком много багов), теперь позволяли вести плавный диалог — прямо как в фильме «Она», где одинокий герой Хоакина Феникса влюбляется в сексуальный голос виртуального ассистента в исполнении Скарлетт Йоханссон. В демонстрационном видео OpenAI снялась Мурати, демонстрируя навыки синхронного перевода GPT-4 на своем хорошем итальянском. Модель была представлена мигающим кружком на экране смартфона с теплым, чуть хрипловатым и слегка кокетливым голосом. Чтобы никто не сомневался, что OpenAI удалось воссоздать атмосферу современной научно-фантастической классики, Альтман лаконично твитнул: «она» 22.
Очередной вирусный хит — и Йоханссон узнала от друзей, что OpenAI, судя по всему, использует ее голос. Посмотрев видео вместе со своим агентом Брайаном Лурдом, они сошлись во мнении: голос под названием Sky был «жутко похож» на ее собственный. Через несколько дней Йоханссон выступила с разгромным заявлением: Альтман месяцами уговаривал ее поучаствовать в озвучке голосового ассистента, получил отказ, но за два дня до релиза продукта снова написал ее агенту — не передумала ли она? Теперь актриса грозила судом. OpenAI заявила, что никто не собирался имитировать голос Йоханссон, а озвучка была записана другой актрисой еще до того, как Альтман к ней обратился, — но все равно убрала голос Sky.
Как мне кажется, Sky был не слишком похож на Йоханссон, а обещанный иск так и не материализовался (на момент написания этих строк). Но откровенная попытка Альтмана эксплуатировать культурные ассоциации с научно-фантастическим фильмом для продвижения продуктов своей компании — без разрешения создателей оригинала — взбесила многих. Это быстро стало символом более масштабной проблемы: модели ИИ обучаются, поглощая гигантские объемы творческих работ из интернета без разрешения и оплаты. С момента запуска ChatGPT в ноябре 2022 года посыпались судебные иски — сначала от художников, потом от писателей, затем от музыкантов… OpenAI и другие технологические гиганты обвинялись в краже интеллектуальной собственности. В конце 2023 года после долгих и безуспешных переговоров о лицензировании контента с OpenAI и Microsoft The New York Times Company подала громкий иск против обеих компаний. «Ответчики фактически сэкономили миллиарды долларов, которые The Times вложила в создание своих материалов, попросту украв их», — говорилось в иске. Агент Йоханссон Брайан Лурд выразил общее беспокойство: «Ключевой момент — как эти компании взаимодействуют с реальными людьми и создателями. Речь идет о подтверждении подлинности, о получении согласия и о вознаграждении за это согласие, — заявил он. — Этим компаниям еще не поздно сбавить обороты и внедрить процессы, которые обеспечат создание продуктов на принципах прозрачности, этичности и ответственности».
OpenAI срочно требовалось сменить информационную повестку. Опасаясь, что уход Суцкевера и Лейке спровоцирует массовое бегство, компания попыталась уговорить Суцкевера передумать. Через неделю после его ухода Мурати и Брокман позвонили ему с предупреждением: без него OpenAI может рухнуть. Брокман намекнул, что его возвращение может заставить вернуться и Лейке — вдвоем они помогут поддержать Альтмана, чья репутация пострадала от скандала с NDA. Мурати, Брокман, Пачоцки, а позже и Альтман явились к нему домой — уговаривать лично.
Суцкевер всерьез рассматривал возможность возвращения, но поделился с Брокманом своими опасениями. Через несколько часов Брокман резко сменил курс. Осознав, какую эмоциональную пытку они устроили Суцкеверу, Альтман, Брокман, Мурати и Пачоцки принесли рукописные записки с извинениями за то, через что заставили его пройти, и благодарностями за саму готовность рассмотреть возможность вернуться и помочь компании в трудный час. Анна Брокман даже принесла кактус — его любимое растение.
В конечном счете Суцкевер покинул OpenAI из-за опасений, что хаотичное и нестабильное руководство обречет компанию на провал в долгосрочной перспективе. Несколько недель спустя он объявил о создании новой компании — Safe Superintelligence Inc. (SSI) — вместе с бывшим партнером YС Дэниелом Гроссом и бывшим инженером OpenAI Дэниелом Леви. В посте в X Суцкевер назвал ее «первой в мире лабораторией, нацеленной исключительно на создание безопасного суперинтеллекта, с одной целью и одним продуктом». «Полная концентрация на главном — нас не будет отвлекать ни управленческая рутина, ни продуктовые циклы». Никаких «продуктов» — по крайней мере на старте. За несколько месяцев они привлекли $1 млрд от инвесторов, включая Sequoia Capital. Когда OpenAI наконец выпустила модель логического мышления, ради которой Суцкевер три года назад создавал команду — сначала под кодовым названием Strawberry, затем переименованную в o1, — имя Суцкевера затерялось среди десятков других подписей под научной статьей.
Что же касается самого Сэма Альтмана, то из любимца конгресса он превратился в мальчика для битья. В том же зале сената, где годом ранее сенатор Ричард Блюменталь хвалил его за «конструктивность», теперь выступала Тонер. Она рассказывала, как опыт работы в совете директоров OpenAI научил ее, что «внутренние ограничители крайне хрупки, когда на кону большие деньги, — вот почему так важно вмешательство регуляторов».
Вскоре губернатор Калифорнии Гэвин Ньюсом наложил вето на законопроект о безопасности ИИ, против которого выступала OpenAI и в доработке которого активно участвовала Anthropic. Законопроект возлагал бы на технологические компании ответственность за вред, причиненный их ИИ-моделями. Среди самых яростных противников был венчурный инвестор YC Рон Конвей — давний друг и Альтмана, и спикера палаты представителей Нэнси Пелоси. Именно Пелоси нанесла законопроекту смертельный удар, публично выступив против, — редчайший случай вмешательства спикера федеральной палаты в законодательство отдельного штата. «Технологическая индустрия привыкла жить без регулирования и считает, что так и должно быть, — заявил сенатор штата Калифорния Скотт Винер, продвигавший законопроект. — Это единственная отрасль с такой позицией».
К осени 2024 года OpenAI начала превращаться в обычную коммерческую компанию — такую же, как все остальные в Кремниевой долине. В рамках реструктуризации Альтман, скорее всего, получит солидную долю. При всех проблемах компания оставалась лидером в исследованиях, избежав крупных катастроф с безопасностью и построив растущий бизнес с более чем 200 млн активных пользователей. В августе Брокман объявил об уходе в отпуск до конца года — с благословения Альтмана. К концу сентября компанию покинули Мурати, Макгрю и Шульман. Из четверки лиц OpenAI, украшавших обложку Wired после триумфального запуска ChatGPT, — Брокман, Суцкевер, Мурати и Альтман — остался только Альтман. Король каннибалов — в гордом одиночестве.
Неделю спустя OpenAI закрыла раунд финансирования на $6,6 млрд при оценке в $157 млрд — почти вдвое больше, чем за год до этого. Среди инвесторов — Thrive Capital, Microsoft и MGX (фонд правительства ОАЭ для инвестиций в ИИ). Все они обязались не финансировать конкурентов OpenAI — SSI Суцкевера, xAI Маска или Anthropic Амодеи — в обмен на доступ к инсайдерской информации. Это был крупнейший раунд венчурного финансирования в истории.