Новости криптомира

07.04.2026
15:10

Диктатор и обманщик. Журналисты описали характер работы Сэма Альтмана

Сэм Альтман sam altman ceo в openai

Журналисты New Yorker провели масштабное полуторагодовое расследование деятельности Сэма Альтмана и пришли к выводу, что он часто лгал на посту CEO OpenAI.

Расследователь Ронан Фэрроу и автор New Yorker Эндрю Маранц изучали ранее не публиковавшиеся внутренние служебные записки, 200 страниц документов и взяли интервью у более чем 100 человек.

Ключевая цель — понять, почему Альтман был отстранен членами совета директоров в ноябре 2023 года.

«OpenAI была основана на предположении о том, что искусственный интеллект может стать самым опасным изобретением в истории человечества, поэтому генеральным директором компании должен быть человек необычайной честности. Члены совета директоров пришли к выводу, что Альтману не хватает этих качеств. Мы задаемся вопросом: правы ли они, утверждая, что ему нельзя доверять», — написал Фэрроу.

Авторы работы пишут, что осенью 2023 года главный научный сотрудник OpenAI Илья Суцкевер собрал около 70 страниц служебных записок об Альтмане и его заместителе Греге Брокмане. Одна из них начинается со слов: «Сэм демонстрирует постоянную склонность ко лжи».

Ушедший из компании Дарио Амодеи вел собственные личные записи. В одном из документов он назвал слова главы OpenAI «чушью».

Способствовавшие отстранению Альтмана обвиняли его в обмане

image
Источник: New Yorker.

«Он выстраивает структуры, которые на бумаге должны ограничивать его в будущем. Но потом, когда этот момент наступает, Альтман избавляется от этого механизма, каким бы он ни был», — говорится в одном из документов.

Как ложь проявляется на практике?

В конце 2022 года Альтман заверил совет директоров, что функции будущей ИИ-модели одобрены комиссией по безопасности. Хелен Тонер запросила соответствующую документацию и обнаружила, что наиболее спорные решения на самом деле не утверждены.

image
Источник: New Yorker.

В 2023 году компания готовилась к выпуску GPT-4 Turbo. Тогда Альтман сказал CTO Мире Мурати, что модель не нуждается в одобрении от отдела безопасности, и сослался на главного юрисконсульта компании Джейсона Квона. Однако тот «не понял», откуда у главы OpenAI появилась такая идея.

В статье также рассказывается о том, что руководство OpenAI рассматривало возможность обогащения за счет противопоставления друг другу мировых держав, в том числе Китая и России.

От плана отказались после того, как несколько сотрудников заявили о намерении уволиться.

Еще одна ложь — статус OpenAI как некоммерческой организации. Компания принимала благотворительные пожертвования, а некоторые сотрудники присоединились как раз из-за благородной миссии компании. Они пошли на сокращение заработной платы ради этого.

Однако внутренние документы показывают, что уже в 2017 году у основателей были сомнения касательно некоммерческой структуры. Брокман написал в дневнике:

«Не могу сказать, что мы привержены некоммерческой модели. Если через три месяца мы станем B-Corp, то это была ложь».

В октябре 2025 года OpenAI завершила реструктуризацию, в ходе которой компанию разделили на коммерческую корпорацию и некоммерческий фонд.

Конкуренция превыше всего

Некоторые бывшие исследователи OpenAI заявили, что фирма отошла от своей первоначальной миссии по обеспечению безопасности и ускорила общеотраслевую «гонку на дно».

В статье подробно описан ряд публичных и внутренних обязательств в области безопасности, от которых компания отказалась. Несколько соответствующих команд расформировали.

Напомним, в мае 2025 года в ходе обновления флагманской ИИ-модели ChatGPT компания OpenAI проигнорировала опасения тестировщиков-экспертов, сделав ее чрезмерно «подхалимской».