Мы не можем доверять ИИ, но мы становимся все более зависимыми от него

Мы не можем доверять ИИ, но мы становимся все более зависимыми от него

У нас есть проблема, мы не можем доверять ИИ, но мы все больше и больше зависим от этого инструмента. Достижения, которых мы достигли в области передовых моделей, привели к тому, что многие люди упростили свои повседневные дела до такой степени, что стали слепо доверять ИИ.

Это слепое доверие к технологии, которая может вызывать ошибочные ответы и даже галлюцинации (придумывать то, чего вы не знаете), — это риск, который, к сожалению, не получает должного внимания со стороны пользователей., но со стороны компаний, которые с большим энтузиазмом продают нам чудеса технологии. ИИ и которые, с их маленькими ртами, говорят нам, что мы не должны доверять ИИ.

Это приводит нас к серьезному противоречию, которое в конечном итоге затрагивает пользователей. Все компании, которые разработали и предлагают решения на основе искусственного интеллекта, особенно в их генеративном аспекте, включают в свои условия использования предупреждения, в которых говорится, что их модели могут ошибаться, и что их не следует использовать для принятия важных решений.

 

Насколько надежен ИИ и почему мы не должны слепо доверять ему

 

Согласно данным стартапа Oumi, опубликованным The New York Times10% поисковых запросов, выполняемых с помощью Google AI (Gemini версии 2), содержат ложную или ошибочную информацию, что составляет около 57 миллионов поддельных результатов в час, около 1 миллиона в минуту.

Представитель Google пошел на попятную, заявив, что данные Oumi неверны, поскольку они не отражают реального поведения, и заверяет, что они основаны на его внутренних данных. Однако внутренние данные Gemini 3 указывают как раз в противоположном направлении, поскольку эта модель вызывает галлюцинации в 28% случаев.

Во многих случаях, когда ИИ дает ложный или неправильный ответ, он прикрепляет ссылку, по которой мы можем найти правильную информацию о том, что мы искали. Проблема в том, что большинство пользователей не удосуживаются перейти по этой ссылке и слепо верят тому, что им говорит ИИ.

Несоответствие между тем, что ИИ показывает в ответе, и его источниками, указанными в отображаемых им ссылках, увеличилось за последние несколько месяцев, достигнув 37% в Gemini 2 и 56% в Gemini 3. С другой стороны, участились случаи, когда страницы, на которые есть ссылки, не соответствуют действительности. они содержат соответствующую информацию.

Еще одна причина, по которой не следует слепо доверять ИИ, заключается в том, что он очень уязвим для манипуляций, поскольку ему не хватает критического мышления. Приведу вам пример: журналист BBC опубликовал статью с ложной информацией и обнаружил, что вскоре после этого ИИ Google повторил свои ложные утверждения, как если бы они были реальными.

То, что Microsoft описывает Copilot как «развлечение», уже многое говорит о том, насколько она уверена в своем собственном ИИ, и насколько преувеличенной кажется вся эта «шумиха», которая была построена вокруг этой технологии, создавая очевидный пузырь, который рано или поздно лопнет.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

два × 1 =

Это может быть вам интересно


Exit mobile version

Спасибо!

Теперь редакторы в курсе.