Новости криптомира

04.11.2025
08:00

Глава ИИ-отдела Microsoft призвал не приписывать нейросетям сознание

Искусственный интеллект помогает в продвижении трансгуманизма

Только биологические существа способны к сознанию. Разработчики и исследователи должны прекратить работу над проектами, предполагающими обратное, заявил руководитель ИИ-отдела Microsoft Мустафа Сулейман в разговоре с CNBC.

«Я не думаю, что люди должны заниматься такой работой. Если задать неверный вопрос, то получишь неверный ответ. Я считаю, что это абсолютно этот случай», — сказал он на конференции AfroTech в Хьюстоне.

Топ-менеджер Microsoft выступает против перспективы создания искусственного интеллекта, способного к сознанию, или ИИ-сервисов, которые якобы могут страдать.

В августе Сулейман написал эссе, в котором предложил новый термин — «кажущийся сознательным ИИ» (Seemingly Conscious AI, SCAI). Такой искусственный интеллект имеет все признаки разумных существ и, следовательно, кажется, что имеет сознание. Он симулирует все характеристики восприятия себя, но внутренне пуст.

«Воображаемая мной система на самом деле не является сознательной, но она будет настолько убедительно имитировать наличие похожего на человеческий разум, что это будет неотличимо от утверждения, которое вы или я могли бы сделать друг другу о нашем собственном мышлении», — пишет Сулейман.

Приписывать ИИ сознание опасно, считает эксперт. Это будет усиливать заблуждения, создавать новые проблемы зависимости, эксплуатировать наши психологические уязвимости, вводить новые измерения поляризации, усложнять уже существующие споры о правах и создавать колоссальную новую категориальную ошибку для общества.

В 2023 году Сулейман стал автором книги The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, в которой подробно рассматриваются риски ИИ и других новых технологий. Среди них:

  • экологические и социальные разрушения — технологии могут трансформировать работу так быстро, что у людей исчезнут привычные роли;
  • проблема контроля — по мере развития ИИ сложнее гарантировать его работу в интересах человека;
  • применение технологий для кибератак, манипулирования обществом и других угроз;
  • необходимость иметь технические и институциональные механизмы для сдерживания ИИ;
  • ослабление власти национальных государств и традиционных институтов.

AGI

Рынок искусственного интеллекта движется в сторону AGI — общего искусственного интеллекта, способного выполнять любые задачи на уровне человека. В августе глава OpenAI Сэм Альтман сообщил, что данный термин, возможно, «не очень полезный». Модели развиваются быстро и вскоре мы будем полагаться на них «все больше и больше», считает он.

Для Сулеймана важно провести четкую грань между тем, что искусственный интеллект становится умнее, и его способностью когда-либо испытывать человеческие эмоции.

«Наше физическое переживание боли — это то, что делает нас очень грустными и заставляет чувствовать себя ужасно, но ИИ не чувствует грусти, когда испытывает “боль”», — сказал он.

По словам эксперта, это очень важное различие. На самом деле искусственный интеллект создает восприятие — кажущееся повествование об опыте — о себе и о сознании, но он не испытывает этого на самом деле.

«Технически вы знаете это, поскольку мы можем видеть, что делает модель», — подчеркнул эксперт.

В сфере искусственного интеллекта есть предложенная философом Джоном Серлом теория под названием биологический натурализм. Она гласит, что сознание зависит от процессов живого мозга.

«Причина, по которой мы сегодня даем людям права, заключается в том, что мы не хотим причинять им вред, поскольку они страдают. У них есть боль и предпочтения, которые включают в себя ее избегания. Эти модели такого не имеют. Это всего лишь симуляция», — сказал Сулейман.

Топ-менеджер против идеи исследования сознания у ИИ, поскольку у него его нет. Он сказал, что Microsoft создает сервисы, которые осознают, что они являются искусственными.

«Проще говоря, мы создаем искусственный интеллект, который всегда работает на благо человека», — подметил он.

Напомним, в октябре эксперты Anthropic выяснили, что ведущие ИИ-модели способны проявлять форму «интроспективного самосознания» — они могут распознавать и описывать собственные внутренние «мысли», а в некоторых случаях даже управлять ими.