Диктатор и обманщик. Журналисты описали характер работы Сэма Альтмана

Журналисты New Yorker провели масштабное полуторагодовое расследование деятельности Сэма Альтмана и пришли к выводу, что он часто лгал на посту CEO OpenAI.
Расследователь Ронан Фэрроу и автор New Yorker Эндрю Маранц изучали ранее не публиковавшиеся внутренние служебные записки, 200 страниц документов и взяли интервью у более чем 100 человек.
Ключевая цель — понять, почему Альтман был отстранен членами совета директоров в ноябре 2023 года.
«OpenAI была основана на предположении о том, что искусственный интеллект может стать самым опасным изобретением в истории человечества, поэтому генеральным директором компании должен быть человек необычайной честности. Члены совета директоров пришли к выводу, что Альтману не хватает этих качеств. Мы задаемся вопросом: правы ли они, утверждая, что ему нельзя доверять», — написал Фэрроу.
Авторы работы пишут, что осенью 2023 года главный научный сотрудник OpenAI Илья Суцкевер собрал около 70 страниц служебных записок об Альтмане и его заместителе Греге Брокмане. Одна из них начинается со слов: «Сэм демонстрирует постоянную склонность ко лжи».
Ушедший из компании Дарио Амодеи вел собственные личные записи. В одном из документов он назвал слова главы OpenAI «чушью».
Способствовавшие отстранению Альтмана обвиняли его в обмане

«Он выстраивает структуры, которые на бумаге должны ограничивать его в будущем. Но потом, когда этот момент наступает, Альтман избавляется от этого механизма, каким бы он ни был», — говорится в одном из документов.
Как ложь проявляется на практике?
В конце 2022 года Альтман заверил совет директоров, что функции будущей ИИ-модели одобрены комиссией по безопасности. Хелен Тонер запросила соответствующую документацию и обнаружила, что наиболее спорные решения на самом деле не утверждены.

В 2023 году компания готовилась к выпуску GPT-4 Turbo. Тогда Альтман сказал CTO Мире Мурати, что модель не нуждается в одобрении от отдела безопасности, и сослался на главного юрисконсульта компании Джейсона Квона. Однако тот «не понял», откуда у главы OpenAI появилась такая идея.
В статье также рассказывается о том, что руководство OpenAI рассматривало возможность обогащения за счет противопоставления друг другу мировых держав, в том числе Китая и России.
От плана отказались после того, как несколько сотрудников заявили о намерении уволиться.
Еще одна ложь — статус OpenAI как некоммерческой организации. Компания принимала благотворительные пожертвования, а некоторые сотрудники присоединились как раз из-за благородной миссии компании. Они пошли на сокращение заработной платы ради этого.
Однако внутренние документы показывают, что уже в 2017 году у основателей были сомнения касательно некоммерческой структуры. Брокман написал в дневнике:
«Не могу сказать, что мы привержены некоммерческой модели. Если через три месяца мы станем B-Corp, то это была ложь».
В октябре 2025 года OpenAI завершила реструктуризацию, в ходе которой компанию разделили на коммерческую корпорацию и некоммерческий фонд.
Конкуренция превыше всего
Некоторые бывшие исследователи OpenAI заявили, что фирма отошла от своей первоначальной миссии по обеспечению безопасности и ускорила общеотраслевую «гонку на дно».
В статье подробно описан ряд публичных и внутренних обязательств в области безопасности, от которых компания отказалась. Несколько соответствующих команд расформировали.
Напомним, в мае 2025 года в ходе обновления флагманской ИИ-модели ChatGPT компания OpenAI проигнорировала опасения тестировщиков-экспертов, сделав ее чрезмерно «подхалимской».