Логотип

«Это будет напряженная работа», — обещает Сэм Альтман в этом предложении. Вот почему он предлагает зарплату более полумиллиона долларов

"Это будет напряженная работа", - обещает Сэм Альтман в этом предложении. Вот почему он предлагает зарплату более полумиллиона долларов

«Это будет напряженная работа, и вам придется погрузиться в нее с головой с самого начала». С этой необычной оговоркой Сэм Альтман, генеральный директор OpenAI, представил на X одно из самых привлекательных — и самых высокооплачиваемых — предложений о работе в современном технологическом секторе. Цель состоит в том, чтобы занять руководящую должность «Ответственного за готовность», занимающегося исключительно прогнозированием, измерением и сдерживанием наиболее серьезных рисков, связанных с передовым искусственным интеллектом.

Эта цифра отчасти объясняет откровенность: базовая зарплата до 555 000 долларов в год плюс акции, согласно внутренней документации компании. В Силиконовой долине, где зарплаты высоки по определению, превышение полумиллиона по-прежнему является явным признаком того, что здесь задействовано нечто большее, чем просто технический талант.

На карту поставлена возможность того, что более совершенные модели искусственного интеллекта нанесут реальный ущерб в больших масштабах… и что кто-то несет прямую ответственность за его предотвращение.

 

Ставьте управление рисками выше коммерческого

Эта должность станет ключевой для OpenAI в «критический» момент. Модели улучшаются с беспрецедентной скоростью и больше не просто генерируют текст или изображения: они обнаруживают уязвимости в системе безопасности, влияют на психические состояния и начинают демонстрировать возможности, которые могут быть повторно использованы в разрушительных целях.

Сам Альтман прямо признает это: в 2025 году, по его словам, компания уже испытала «предварительный просмотр» воздействия этих систем на психическое здоровье, и теперь он начинает наблюдать, как модели становятся достаточно компетентными в области кибербезопасности, чтобы обнаруживать критические сбои.

Компания предполагает, что разработка продвинутого ИИ сопряжена с неизбежными рисками, и что единственный ответственный вариант — это поручить кому-то хорошо оплачиваемому, обладающему реальной властью и находящемуся под огромным давлением, следить за тем, где и когда может быть нанесен ущерб.

Читать  Увольнение работника за то, что ИИ "выполняет свою работу", звучит очень заманчиво. Китай хочет сделать это неприемлемым

Таким образом, роль менеджера по обеспечению готовности заключается не в том, чтобы быть корпоративным философом или обнадеживающим представителем, а в том, чтобы отвечать за механизм безопасности: технические оценки, модели угроз, тестирование на злоупотребления, меры по смягчению последствий и решения о запуске.

И действительно, одна из основных обязанностей, которая ляжет на плечи человека, которого они нанимают, будет заключаться в том, чтобы решить, когда модель ИИ станет слишком опасной для запуска, даже если это означает потерю преимущества перед менее осторожными конкурентами.

 

Понятно, что это не просто работа

В течение многих лет крупные компании, занимающиеся искусственным интеллектом, постоянно критиковали за то, что они довольно легкомысленно говорили о рисках, связанных с их технологиями. Теперь OpenAI пытается ответить, назначив кого-то по имени и фамилии, который отвечает за наихудшие возможные сценарии. Эта должность курирует области, которые компания считает «серьезными»: кибербезопасность, биологические и химические возможности, а также системы искусственного интеллекта, способные к самосовершенствованию.

Напомним, что, согласно собственным внутренним таблицам, OpenAI определяет «серьезный ущерб» как результаты, сопоставимые с тысячами смертей, серьезными травмами в больших масштабах или экономическими потерями в сотни миллиардов долларов. Такое определение обычно встречается в государственных планах действий в чрезвычайных ситуациях, а не в объявлениях о вакансиях, размещаемых в социальных сетях.

 

Внутренний и внешний контекст

Недавний послужной список OpenAI показывает внутреннюю напряженность, уходы руководителей служб безопасности и публичную критику со стороны бывших руководителей, которые осуждали то, что культура безопасности уступает место быстрым запускам (технически это было также причиной того, что сам Альтман был ненадолго уволен с поста генерального директора).

Читать  Переход Mozilla на ИИ — спасение интернета или спасение самой компании?

С другой стороны, OpenAI сейчас сталкивается с растущим потоком судебных исков и проверок со стороны регулирующих органов, а также с социальным климатом растущего недоверия. Фактически, недавние опросы показывают, что большинство населения США воспринимает больше рисков, чем выгод от расширения ИИ, и подавляющее большинство предпочитает строгие правила, даже если это замедлит развитие.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

двенадцать + девять =

Это может быть вам интересно


Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала