Логотип

OpenAI столкнулась с протестом пользователей после сотрудничества с армией США

OpenAI столкнулась с протестом пользователей после сотрудничества с армией США

Искусственный интеллект всё активнее используется государственными структурами, однако такие решения могут вызывать неожиданную реакцию пользователей. Недавняя история вокруг сотрудничества компании OpenAI с американскими военными стала ярким примером того, как общественное мнение может повлиять на технологический гигант.

После заключения соглашения с Министерством обороны США пользователи начали массово удалять приложение ChatGPT, выражая недовольство потенциальным использованием ИИ в военных целях.

 

Почему OpenAI оказалась в центре скандала

Ситуация возникла после конфликта между Пентагоном и компанией Anthropic, разработчиком чат-бота Claude.

Военные хотели расширить возможности использования ИИ, включая задачи, связанные с разведкой и потенциальным применением в системах вооружения. Однако Anthropic отказалась ослаблять ограничения, которые запрещают:

  • массовую слежку за населением;
  • применение ИИ для создания автономного оружия;
  • использование системы в потенциально насильственных операциях.

 

После этого американское оборонное ведомство начало искать альтернативу — и ей стала OpenAI.

 

Реакция пользователей: массовое удаление ChatGPT

Решение сотрудничать с военными вызвало резкую реакцию среди пользователей.

Согласно данным аналитической компании Sensor Tower:

  • число удалений приложения ChatGPT в США выросло примерно на 295% всего за один день;
  • количество негативных отзывов увеличилось на 775%;
  • оценки в пять звёзд снизились примерно на 50%.

 

Одновременно резко выросла популярность Claude. Впервые это приложение обогнало ChatGPT по числу загрузок в США и стало одним из самых скачиваемых ИИ-сервисов в нескольких странах Европы и Северной Америки.

 

Почему пользователи отреагировали так резко

Главные опасения пользователей связаны с этическими аспектами использования искусственного интеллекта.

Читать  Люди прячутся за анонимными аккаунтами, думая, что их невозможно раскрыть. Но у ИИ для них плохие новости

Наиболее обсуждаемые риски:

  • интеграция ИИ в военные системы и автономное оружие;
  • возможность массовой цифровой слежки;
  • непрозрачность условий контрактов с правительством;
  • опасения, что крупные технологические компании получают слишком большое влияние.

 

Многие пользователи считают, что технологии искусственного интеллекта должны использоваться прежде всего для гражданских задач — образования, науки и медицины.

 

Попытка OpenAI исправить ситуацию

После критики генеральный директор компании Sam Altman признал, что объявление о сотрудничестве было сделано слишком поспешно.

Компания внесла изменения в соглашение с военными, добавив ограничения, согласно которым:

  • ИИ не должен использоваться для внутреннего наблюдения за гражданами США;
  • запрещается применять его в полностью автономных системах вооружения без контроля человека.

 

Тем не менее многие критики считают эти меры недостаточными, поскольку полный текст договора остаётся закрытым.

 

Эффект Стрейзанд в мире ИИ

Произошедшее стало примером так называемого эффекта Стрейзанд — ситуации, когда попытка контролировать или изменить информационную повестку приводит к обратному результату.

В данном случае:

  • попытка быстро занять место поставщика ИИ для военных вызвала общественную критику;
  • конкурент OpenAI получил неожиданный рост популярности;
  • сама компания столкнулась с репутационным кризисом.

 

Выводы

История с OpenAI показала, насколько чувствительной стала тема использования искусственного интеллекта в военной сфере.

Главные выводы:

  • общественное мнение может напрямую влиять на технологические компании;
  • этические вопросы ИИ становятся не менее важными, чем технологические;
  • конкуренция между разработчиками ИИ усиливается не только на уровне технологий, но и на уровне доверия пользователей;
  • сотрудничество с государственными структурами может приносить прибыль, но одновременно несёт серьёзные репутационные риски.

 

В ближайшие годы вопрос о том, где проходит граница между гражданским и военным применением искусственного интеллекта, станет одним из ключевых для всей индустрии.

Читать  Цена ответственности за ошибки, допущенные машинами

 

Часто задаваемые вопросы

Почему пользователи начали удалять ChatGPT?

Многие пользователи негативно восприняли сотрудничество OpenAI с Министерством обороны США, опасаясь, что технологии ИИ могут использоваться для военных операций, слежки или разработки автономного оружия.

Кто главный конкурент OpenAI в этой истории?

Основным конкурентом стала компания Anthropic, разработчик чат-бота Claude. Она отказалась сотрудничать с военными на предложенных условиях, что повысило её репутацию среди пользователей.

Действительно ли ChatGPT используется военными?

OpenAI подтвердила сотрудничество с государственными структурами США, однако компания утверждает, что вводит ограничения, запрещающие использование ИИ для внутренней слежки и полностью автономного оружия.

Изменилось ли соглашение после критики?

Да. OpenAI внесла дополнительные положения в контракт, чтобы уточнить ограничения на использование технологий и снизить опасения общества.

Что это означает для будущего искусственного интеллекта?

Скандал показывает, что развитие ИИ всё чаще будет сопровождаться политическими и этическими дебатами, а доверие пользователей станет ключевым фактором успеха.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

10 − один =

Это может быть вам интересно


Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала