Site icon Искусственный интеллект: просто о сложном
Пятница, 23 января, 2026

Невозможно определить, сделано ли это видео с актерами ‘Stranger Things’ с использованием искусственного интеллекта или нет. Это проблема

Невозможно определить, сделано ли это видео с актерами 'Stranger Things' с использованием искусственного интеллекта или нет. Это проблема

На этой неделе бразильский создатель контента ederxavier3d опубликовал потрясающее видео в своем аккаунте в Instagram. В нем были показаны v арии главных героев сериала ‘Stranger Things’, делающие только те жесты и выражения, которые он делал в нижнем окне. Он объяснил, что ему это удалось легко и благодаря новому Kling 2.6 и его функции управления движением.

Эта опция позволяет передавать движения, которые мы выполняем в видео, любому реальному или вымышленному человеку, в каком бы стиле он ни был изображен (это может быть персонаж комиксов), с потрясающим результатом.

 

А в случае с видео бразильского создателя вы можете ясно видеть: эти видео могут сойти за настоящие почти во всех случаях. Это правда, что если кто-то фиксируется, он может интуитивно почувствовать, что что-то не так, но только потому, что видео было опубликовано, давая понять, что оно создано с помощью искусственного интеллекта.

Это видео снова вызвало дискуссию, которая уже давно связана с такого рода дипфейками. Джастин Мур, партнер инвестиционной компании a16z, объяснила, что «мы не готовы к тому, как быстро [видео] производственные процессы изменятся с помощью искусственного интеллекта. Некоторые из последних моделей видео имеют непосредственные последствия для Голливуда. Бесконечные обмены персонажами при незначительных затратах».

Как изменилась история. В апреле 2023 года мы предложили всем, кто читает нам, небольшую игру: сможете ли вы отличить реальное изображение от изображения, созданного искусственным интеллектом? В то время ИИ уже добился выдающихся результатов — изображение Папы Римского в пальто доказало это, — но было ощущение, что мы все еще можем различить, было ли изображение создано с помощью искусственного интеллекта или нет. С видео все было еще яснее, потому что к тому времени создание видео с помощью искусственного интеллекта находилось в зачаточном состоянии.

Три года спустя дело обстоит совсем по-другому, и существует несколько платформ искусственного интеллекта (я вижу 3, Sora 2, Kling, Runway), которые генерируют видео, которые любой может легко спутать без проблем. Пусть скажут Уиллу Смиту.

Видео ederxavier3d также доказывает это, и на самом деле с ним произошло нечто необычное: ходили слухи, что на самом деле персонажи Stranger Things записывали эти появления, а создатель имитировал их движения, а затем появились слухи, отрицающие, что это правда, и указывающие на то, что с самого начала видео были сняты с использованием искусственного интеллекта. они были не более чем тем, чем казались: дипфейками, созданными с помощью искусственного интеллекта.

 

Априори все могло бы показаться именно так: функция Kling 2.6 вовсе не нова, а другие платформы позволяют переносить наши движения и жесты — и даже наш голос — на персонажа, созданного искусственным интеллектом. Проблема в том, что к настоящему времени уже практически невозможно определить, действительно ли этот человек, изображенный на экране, настоящий или нет.

Эта технология необычайно привлекательна и вызывает тот «вау-эффект», которого так жаждут компании, занимающиеся искусственным интеллектом, но, несмотря на предлагаемые ею творческие возможности, здесь риски кажутся особенно заметными.

Спуфинг теперь осуществить проще, чем когда-либо, и это, вероятно, приведет к тому, что мы увидим гораздо больше опасных случаев. Достаточно вспомнить сотрудника, который перевел 25 миллионов долларов, полагая, что тот, кто сказал ему об этом по видеоконференции, был его настоящим начальником.

Неясно, как, например, голливудские студии отреагируют на эту технологию, но на данный момент некоторые уже принимают меры, чтобы попытаться защитить себя.

 

Лучший пример — Мэтью МакКонахи, который в наши дни «запатентовал себя», чтобы иметь еще одно средство правовой защиты (в котором мы не уверены, что оно необходимо), чтобы защитить себя от возможных видеороликов, выдающих себя за него. Последствия огромны, и мы вступаем в эпоху, когда произойдет что-то тревожное: мы не сможем доверять тому, что видим на экране.

Exit mobile version