Четыре эксперта по искусственному интеллекту очень критически относятся к OpenAI и к тому, как развивается искусственный интеллект: технология в нескольких руках

Искусственный интеллект обладает широко используемыми инструментами и постоянно удивляет нас новыми технологиями. В то время как искусственный интеллект развивается с головокружительной скоростью и обещает изменить все сферы жизни, растут и другие проблемы. Например, будет ли это сокращать рабочие места или тот факт, что ИИ находится в руках очень немногих миллионеров.
Различные авторитетные голоса в мире искусственного интеллекта предупреждают, что текущее развитие находится в руках горстки крупных корпораций и миллиардеров, которые навязывают технократическое, иерархическое и не всеохватывающее видение. Эти эксперты, далекие от прогресса, направленного на общее благо, осуждают беспрецедентную концентрацию власти, которая может представлять большой риск.
ЧАТ GPT-4 за 4 МИНУТЫ
Необходимость избежать единого вертикального ИИ, который всем управляет
Одри Тан — хакер, десять лет занимающая пост министра цифровых технологий Тайваня. Его цель — сделать Интернет более безопасным местом, в котором предлагаемые им услуги служат интересам граждан, а не наоборот. Одна из их резких критических замечаний в адрес предлагаемого нам развития ИИ заключается в том, что мы помогаем в разработке одного или нескольких «вертикальных искусственных суперинтеллектов».
Их идея состоит в том, что должны существовать децентрализованные, прозрачные и основанные на широком участии инфраструктуры безопасности, чтобы предлагать людям горизонтальный коллективный интеллект, вспомогательные системы, расширяющие возможности человека. действия.
ИИ находится в руках компаний, которые отдают предпочтение прибыли, а не безопасности
Джеффри Хинтон, лауреат Нобелевской премии 2024 года и один из отцов-основателей «глубокого обучения», основы современного ИИ, уже несколько десятилетий является одним из самых влиятельных людей. голоса в этой области технологий. Но с момента своего ухода из Google в 2023 году он взял на себя новую роль: представителя, критически относящегося к экзистенциальным рискам, создаваемым ИИ.
В недавнем выступлении (доступно на YouTube) Хинтон ясно выразил свой скептицизм по поводу некоторых наиболее часто используемых методов «приведения» систем искусственного интеллекта в соответствие с человеческими ценностями. Среди них один, известный как RLHF, занимает центральное место в их критике. RLHF (сокращение от «Обучение с подкреплением с обратной связью с человеком», или «обучение с подкреплением с обратной связью с человеком») — это метод, с помощью которого языковая модель (например, GPT-4o) обучается не только с использованием необработанных текстовых данных, но и с помощью обучения с подкреплением. вмешательство человека.
Хинтон — один из пионеров глубокого обучения, который прошел путь от развития ИИ до предупреждения о его опасностях. Он критикует то, что разработка находится в руках крупных корпораций (таких как некоторые крупные технологические компании), которые отдают предпочтение коммерческой конкуренции, а не безопасности. Он также предупреждает, что “гонка за искусственным интеллектом” может оставить в стороне экзистенциальные риски, такие как массовая безработица и концентрация богатства: “Маск станет богаче, и многие люди останутся безработными”.
ИИ «очень глупый»
Янн ЛеКун (которого вместе с Хинтоном считают одним из «крестных отцов ИИ» и лауреатом премии Тьюринга) подтвердил то, что многие подозревали с тех пор, как Meta вступила в эпоху суперинтеллекта: он покидает компанию. Он объявил об этом несколько дней назад.
Вывод происходит на фоне философской напряженности. ЛеКун годами предупреждал, что нынешний генеративный ИИ «очень глупый» и что такие модели, как GPT-4, не умнее домашней кошки. В то время как Силиконовая долина и сама Meta вкладывают миллиарды в масштабирование LLM, собирая больше данных и вычислительных мощностей, Лекун утверждает, что эта стратегия зашла в тупик.
По его мнению, LLM не решают реальных проблем, а ограничиваются прогнозированием текста на основе вероятностей без понимания реальности. При таком подходе Лекун терял внутренний вес по сравнению с такими фигурами, как Александр Ван и другие представители команды суперинтеллектов.
Чрезвычайная концентрация власти, богатства и контроля
Хайме Севилья — испанский исследователь, основатель Epoch AI, организации, занимающейся анализом и прогнозированием эволюции ИИ. предупредил о сценариях, при которых “99 % ресурсов окажутся в руках ИИ”.
Их видение указывает на возможную чрезвычайную концентрацию власти, богатства и контроля в руках тех, кто доминирует в системах искусственного интеллекта. Это может привести к глубокому социальному расколу, при котором немногие будут в выигрыше, а многие будут исключены.
Кроме того, он предупреждает, что многие виды использования ИИ могут быть вредными: не только из-за безработицы, но и из-за его потенциала для злонамеренной деятельности (мошенничество, манипуляции и т. Д.).
Редактор: AndreyEx