OpenAI столкнулась с протестом пользователей после сотрудничества с армией США

OpenAI столкнулась с протестом пользователей после сотрудничества с армией США

Искусственный интеллект всё активнее используется государственными структурами, однако такие решения могут вызывать неожиданную реакцию пользователей. Недавняя история вокруг сотрудничества компании OpenAI с американскими военными стала ярким примером того, как общественное мнение может повлиять на технологический гигант.

После заключения соглашения с Министерством обороны США пользователи начали массово удалять приложение ChatGPT, выражая недовольство потенциальным использованием ИИ в военных целях.

 

Почему OpenAI оказалась в центре скандала

Ситуация возникла после конфликта между Пентагоном и компанией Anthropic, разработчиком чат-бота Claude.

Военные хотели расширить возможности использования ИИ, включая задачи, связанные с разведкой и потенциальным применением в системах вооружения. Однако Anthropic отказалась ослаблять ограничения, которые запрещают:

  • массовую слежку за населением;
  • применение ИИ для создания автономного оружия;
  • использование системы в потенциально насильственных операциях.

 

После этого американское оборонное ведомство начало искать альтернативу — и ей стала OpenAI.

 

Реакция пользователей: массовое удаление ChatGPT

Решение сотрудничать с военными вызвало резкую реакцию среди пользователей.

Согласно данным аналитической компании Sensor Tower:

  • число удалений приложения ChatGPT в США выросло примерно на 295% всего за один день;
  • количество негативных отзывов увеличилось на 775%;
  • оценки в пять звёзд снизились примерно на 50%.

 

Одновременно резко выросла популярность Claude. Впервые это приложение обогнало ChatGPT по числу загрузок в США и стало одним из самых скачиваемых ИИ-сервисов в нескольких странах Европы и Северной Америки.

 

Почему пользователи отреагировали так резко

Главные опасения пользователей связаны с этическими аспектами использования искусственного интеллекта.

Наиболее обсуждаемые риски:

  • интеграция ИИ в военные системы и автономное оружие;
  • возможность массовой цифровой слежки;
  • непрозрачность условий контрактов с правительством;
  • опасения, что крупные технологические компании получают слишком большое влияние.

 

Многие пользователи считают, что технологии искусственного интеллекта должны использоваться прежде всего для гражданских задач — образования, науки и медицины.

 

Попытка OpenAI исправить ситуацию

После критики генеральный директор компании Sam Altman признал, что объявление о сотрудничестве было сделано слишком поспешно.

Компания внесла изменения в соглашение с военными, добавив ограничения, согласно которым:

  • ИИ не должен использоваться для внутреннего наблюдения за гражданами США;
  • запрещается применять его в полностью автономных системах вооружения без контроля человека.

 

Тем не менее многие критики считают эти меры недостаточными, поскольку полный текст договора остаётся закрытым.

 

Эффект Стрейзанд в мире ИИ

Произошедшее стало примером так называемого эффекта Стрейзанд — ситуации, когда попытка контролировать или изменить информационную повестку приводит к обратному результату.

В данном случае:

  • попытка быстро занять место поставщика ИИ для военных вызвала общественную критику;
  • конкурент OpenAI получил неожиданный рост популярности;
  • сама компания столкнулась с репутационным кризисом.

 

Выводы

История с OpenAI показала, насколько чувствительной стала тема использования искусственного интеллекта в военной сфере.

Главные выводы:

  • общественное мнение может напрямую влиять на технологические компании;
  • этические вопросы ИИ становятся не менее важными, чем технологические;
  • конкуренция между разработчиками ИИ усиливается не только на уровне технологий, но и на уровне доверия пользователей;
  • сотрудничество с государственными структурами может приносить прибыль, но одновременно несёт серьёзные репутационные риски.

 

В ближайшие годы вопрос о том, где проходит граница между гражданским и военным применением искусственного интеллекта, станет одним из ключевых для всей индустрии.

 

FAQ

Почему пользователи начали удалять ChatGPT?

Многие пользователи негативно восприняли сотрудничество OpenAI с Министерством обороны США, опасаясь, что технологии ИИ могут использоваться для военных операций, слежки или разработки автономного оружия.

Кто главный конкурент OpenAI в этой истории?

Основным конкурентом стала компания Anthropic, разработчик чат-бота Claude. Она отказалась сотрудничать с военными на предложенных условиях, что повысило её репутацию среди пользователей.

Действительно ли ChatGPT используется военными?

OpenAI подтвердила сотрудничество с государственными структурами США, однако компания утверждает, что вводит ограничения, запрещающие использование ИИ для внутренней слежки и полностью автономного оружия.

Изменилось ли соглашение после критики?

Да. OpenAI внесла дополнительные положения в контракт, чтобы уточнить ограничения на использование технологий и снизить опасения общества.

Что это означает для будущего искусственного интеллекта?

Скандал показывает, что развитие ИИ всё чаще будет сопровождаться политическими и этическими дебатами, а доверие пользователей станет ключевым фактором успеха.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

16 + 12 =

Это может быть вам интересно


Загрузка...
Exit mobile version

Спасибо!

Теперь редакторы в курсе.