OpenAI столкнулась с протестом пользователей после сотрудничества с армией США

Искусственный интеллект всё активнее используется государственными структурами, однако такие решения могут вызывать неожиданную реакцию пользователей. Недавняя история вокруг сотрудничества компании OpenAI с американскими военными стала ярким примером того, как общественное мнение может повлиять на технологический гигант.
После заключения соглашения с Министерством обороны США пользователи начали массово удалять приложение ChatGPT, выражая недовольство потенциальным использованием ИИ в военных целях.
Почему OpenAI оказалась в центре скандала
Ситуация возникла после конфликта между Пентагоном и компанией Anthropic, разработчиком чат-бота Claude.
Военные хотели расширить возможности использования ИИ, включая задачи, связанные с разведкой и потенциальным применением в системах вооружения. Однако Anthropic отказалась ослаблять ограничения, которые запрещают:
- массовую слежку за населением;
- применение ИИ для создания автономного оружия;
- использование системы в потенциально насильственных операциях.
После этого американское оборонное ведомство начало искать альтернативу — и ей стала OpenAI.
Реакция пользователей: массовое удаление ChatGPT
Решение сотрудничать с военными вызвало резкую реакцию среди пользователей.
Согласно данным аналитической компании Sensor Tower:
- число удалений приложения ChatGPT в США выросло примерно на 295% всего за один день;
- количество негативных отзывов увеличилось на 775%;
- оценки в пять звёзд снизились примерно на 50%.
Одновременно резко выросла популярность Claude. Впервые это приложение обогнало ChatGPT по числу загрузок в США и стало одним из самых скачиваемых ИИ-сервисов в нескольких странах Европы и Северной Америки.
Почему пользователи отреагировали так резко
Главные опасения пользователей связаны с этическими аспектами использования искусственного интеллекта.
Наиболее обсуждаемые риски:
- интеграция ИИ в военные системы и автономное оружие;
- возможность массовой цифровой слежки;
- непрозрачность условий контрактов с правительством;
- опасения, что крупные технологические компании получают слишком большое влияние.
Многие пользователи считают, что технологии искусственного интеллекта должны использоваться прежде всего для гражданских задач — образования, науки и медицины.
Попытка OpenAI исправить ситуацию
После критики генеральный директор компании Sam Altman признал, что объявление о сотрудничестве было сделано слишком поспешно.
Компания внесла изменения в соглашение с военными, добавив ограничения, согласно которым:
- ИИ не должен использоваться для внутреннего наблюдения за гражданами США;
- запрещается применять его в полностью автономных системах вооружения без контроля человека.
Тем не менее многие критики считают эти меры недостаточными, поскольку полный текст договора остаётся закрытым.
Эффект Стрейзанд в мире ИИ
Произошедшее стало примером так называемого эффекта Стрейзанд — ситуации, когда попытка контролировать или изменить информационную повестку приводит к обратному результату.
В данном случае:
- попытка быстро занять место поставщика ИИ для военных вызвала общественную критику;
- конкурент OpenAI получил неожиданный рост популярности;
- сама компания столкнулась с репутационным кризисом.
Выводы
История с OpenAI показала, насколько чувствительной стала тема использования искусственного интеллекта в военной сфере.
Главные выводы:
- общественное мнение может напрямую влиять на технологические компании;
- этические вопросы ИИ становятся не менее важными, чем технологические;
- конкуренция между разработчиками ИИ усиливается не только на уровне технологий, но и на уровне доверия пользователей;
- сотрудничество с государственными структурами может приносить прибыль, но одновременно несёт серьёзные репутационные риски.
В ближайшие годы вопрос о том, где проходит граница между гражданским и военным применением искусственного интеллекта, станет одним из ключевых для всей индустрии.
FAQ
Почему пользователи начали удалять ChatGPT?
Многие пользователи негативно восприняли сотрудничество OpenAI с Министерством обороны США, опасаясь, что технологии ИИ могут использоваться для военных операций, слежки или разработки автономного оружия.
Кто главный конкурент OpenAI в этой истории?
Основным конкурентом стала компания Anthropic, разработчик чат-бота Claude. Она отказалась сотрудничать с военными на предложенных условиях, что повысило её репутацию среди пользователей.
Действительно ли ChatGPT используется военными?
OpenAI подтвердила сотрудничество с государственными структурами США, однако компания утверждает, что вводит ограничения, запрещающие использование ИИ для внутренней слежки и полностью автономного оружия.
Изменилось ли соглашение после критики?
Да. OpenAI внесла дополнительные положения в контракт, чтобы уточнить ограничения на использование технологий и снизить опасения общества.
Что это означает для будущего искусственного интеллекта?
Скандал показывает, что развитие ИИ всё чаще будет сопровождаться политическими и этическими дебатами, а доверие пользователей станет ключевым фактором успеха.
Редактор: AndreyEx