«Это будет напряженная работа», — обещает Сэм Альтман в этом предложении. Вот почему он предлагает зарплату более полумиллиона долларов

«Это будет напряженная работа, и вам придется погрузиться в нее с головой с самого начала». С этой необычной оговоркой Сэм Альтман, генеральный директор OpenAI, представил на X одно из самых привлекательных — и самых высокооплачиваемых — предложений о работе в современном технологическом секторе. Цель состоит в том, чтобы занять руководящую должность «Ответственного за готовность», занимающегося исключительно прогнозированием, измерением и сдерживанием наиболее серьезных рисков, связанных с передовым искусственным интеллектом.
Эта цифра отчасти объясняет откровенность: базовая зарплата до 555 000 долларов в год плюс акции, согласно внутренней документации компании. В Силиконовой долине, где зарплаты высоки по определению, превышение полумиллиона по-прежнему является явным признаком того, что здесь задействовано нечто большее, чем просто технический талант.
На карту поставлена возможность того, что более совершенные модели искусственного интеллекта нанесут реальный ущерб в больших масштабах… и что кто-то несет прямую ответственность за его предотвращение.
Ставьте управление рисками выше коммерческого
Эта должность станет ключевой для OpenAI в «критический» момент. Модели улучшаются с беспрецедентной скоростью и больше не просто генерируют текст или изображения: они обнаруживают уязвимости в системе безопасности, влияют на психические состояния и начинают демонстрировать возможности, которые могут быть повторно использованы в разрушительных целях.
Сам Альтман прямо признает это: в 2025 году, по его словам, компания уже испытала «предварительный просмотр» воздействия этих систем на психическое здоровье, и теперь он начинает наблюдать, как модели становятся достаточно компетентными в области кибербезопасности, чтобы обнаруживать критические сбои.
Компания предполагает, что разработка продвинутого ИИ сопряжена с неизбежными рисками, и что единственный ответственный вариант — это поручить кому-то хорошо оплачиваемому, обладающему реальной властью и находящемуся под огромным давлением, следить за тем, где и когда может быть нанесен ущерб.
Таким образом, роль менеджера по обеспечению готовности заключается не в том, чтобы быть корпоративным философом или обнадеживающим представителем, а в том, чтобы отвечать за механизм безопасности: технические оценки, модели угроз, тестирование на злоупотребления, меры по смягчению последствий и решения о запуске.
И действительно, одна из основных обязанностей, которая ляжет на плечи человека, которого они нанимают, будет заключаться в том, чтобы решить, когда модель ИИ станет слишком опасной для запуска, даже если это означает потерю преимущества перед менее осторожными конкурентами.
Понятно, что это не просто работа
В течение многих лет крупные компании, занимающиеся искусственным интеллектом, постоянно критиковали за то, что они довольно легкомысленно говорили о рисках, связанных с их технологиями. Теперь OpenAI пытается ответить, назначив кого-то по имени и фамилии, который отвечает за наихудшие возможные сценарии. Эта должность курирует области, которые компания считает «серьезными»: кибербезопасность, биологические и химические возможности, а также системы искусственного интеллекта, способные к самосовершенствованию.
Напомним, что, согласно собственным внутренним таблицам, OpenAI определяет «серьезный ущерб» как результаты, сопоставимые с тысячами смертей, серьезными травмами в больших масштабах или экономическими потерями в сотни миллиардов долларов. Такое определение обычно встречается в государственных планах действий в чрезвычайных ситуациях, а не в объявлениях о вакансиях, размещаемых в социальных сетях.
Внутренний и внешний контекст
Недавний послужной список OpenAI показывает внутреннюю напряженность, уходы руководителей служб безопасности и публичную критику со стороны бывших руководителей, которые осуждали то, что культура безопасности уступает место быстрым запускам (технически это было также причиной того, что сам Альтман был ненадолго уволен с поста генерального директора).
С другой стороны, OpenAI сейчас сталкивается с растущим потоком судебных исков и проверок со стороны регулирующих органов, а также с социальным климатом растущего недоверия. Фактически, недавние опросы показывают, что большинство населения США воспринимает больше рисков, чем выгод от расширения ИИ, и подавляющее большинство предпочитает строгие правила, даже если это замедлит развитие.
Редактор: AndreyEx