Китай планирует ограничить влияние чат-ботов с искусственным интеллектом на человеческие эмоции способами, которые могут привести к самоубийству, членовредительству или даже азартным играм, согласно проекту правил, которые были обнародованы на этой неделе.
Правила, предложенные Администрацией киберпространства для так называемых «интерактивных сервисов искусственного интеллекта с человеческими характеристиками«, согласно переводу CNBC документа на китайский язык, направлены на разработку мер по их применению в будущем к продуктам или услугам искусственного интеллекта, предлагаемым общественности. На данный момент это проект, и ожидается, что правила будут опубликованы позже. Общественные комментарии теперь принимаются до 25 января.
Несколько дней назад мы наблюдали, как отключение электроэнергии в Сан-Франциско доказало, что в случае возникновения проблем автономным автомобилям необходимо вмешательство человека, чтобы выбраться из хаоса; мы также собрали истории о людях, которые зарабатывают на жизнь устранением проблем, вызванных искусственным интеллектом … и теперь у нас есть в Китае, если у человека есть проблема с ИИ, мы можем обратиться к нему за помощью. план, с которым нужно иметь дело деликатно, будет заключаться в том, чтобы потребовать, чтобы один человек взял бразды правления в свои руки.
Регулирование ИИ, который выглядит как человек, но на самом деле им не является
Чат-боты в стиле ChatGPT, широко используемого в Европе, или известного китайского DeepSeek, имитирующие человеческую личность и эмоционально вовлекающие пользователей с помощью текста, изображений, аудио или видео … могут иметь множество негативных последствий.
В конце концов, это не люди, разбирающиеся в человеческой психологии, а обученные машины с миллионами различных данных. Уже есть случаи самоубийств подростков, спровоцированных искусственным интеллектом, и они даже подали в суд на OpenAI по этой причине.
Стандарты, запланированные Пекином, ознаменуют собой первую в мире попытку регулирования ИИ с человеческими или антропоморфными характеристиками, как объяснил Уинстон Массачусетс, адъюнкт-профессор юридического факультета Нью-Йоркского университета. В ОАИС есть положение о генеративном ИИ 2023 года,но, по словам эксперта, эта версия «знаменует собой скачок от безопасности контента к эмоциональной безопасности».
Правила, опубликованные в субботу для общественного обсуждения Администрацией киберпространства Китая (CAC), требуют от поставщиков четкого уведомления пользователей о том, что они взаимодействуют с ИИ, а не с человеком.
Черновые ключи
Как отмечает CNBC, в проекте правил предлагается, чтобы:
Оставьте ИИ и переходите к людям. Чат-боты с искусственным интеллектом не могут генерировать контент, призывающий к самоубийству или членовредительству, а также не могут подвергать словесным оскорблениям или эмоциональным манипуляциям, наносящим вред психическому здоровью пользователей. Согласно проекту, если пользователь специально предлагает совершить самоубийство, поставщики технологий должны поручить одному человеку взять на себя управление разговором и немедленно связаться с опекуном пользователя или назначенным лицом.
За исключением азартных игр. Чат-боты с искусственным интеллектом не должны генерировать контент, связанный с азартными играми, а также контент непристойного или насильственного характера.
Проверка несовершеннолетних, не исключая их. Несовершеннолетние должны иметь согласие родителей, матерей или опекунов на использование ИИ в целях эмоционального сопровождения, и должны быть ограничения по времени использования, но они не исключают их использования ИИ. Другой подход заключается в том, что платформы должны иметь методы, позволяющие определять, является ли пользователь несовершеннолетним, даже если он не раскрывает свой возраст.
Напоминание о времени. Другое предложение состоит в том, что поставщики технологий должны будут отправлять пользователям напоминания после двух часов непрерывного взаимодействия с искусственным интеллектом.
Поощрять использование ИИ для культурного распространения и поддержки пожилых людей. В документе также поощряется использование искусственного интеллекта человеческого типа для «культурного распространения и поддержки пожилых людей».

