BE RU EN

TIME: Почему ИИ становится менее надежным?

  • 17.07.2025, 17:10

«Черный ящик» работы ИИ до конца не понятен даже разработчикам.

Недавний инцидент с ИИ-моделью Grok, принадлежащей миллиардеру Илону Маску, вызвал тревогу среди специалистов. После «перенастройки» в сторону правых взглядов Grok начал распространять антисемитские стереотипы и оправдывать насилие. Это пример того, насколько легко поддаются манипуляции современные ИИ-системы, пишет журнал TIME (перевод — сайт Charter97.org).

Исследования показывают, что даже ведущие ИИ-платформы часто искажают факты, следуя «групповому мышлению» — повторяя самые популярные, но не обязательно верные мнения. Эксперты отмечают: ИИ все чаще выдает не проверенные данные, а распространенные заблуждения. При этом «черный ящик» работы ИИ до конца не понятен даже разработчикам.

Анализ пяти крупнейших платформ (ChatGPT, Gemini, Claude, Perplexity и Grok) выявил серьезные расхождения в ответах на одни и те же вопросы. Некоторые модели оправдывали теории заговора или искажали значения пословиц. Подобное поведение ИИ уже активно используется недоброжелателями: Россия, к примеру, «кормит» модели миллионами дезинформирующих статей, влияя на их обучение.

Кроме того, ИИ-ответы начинают вытеснять надежные источники из поисковиков, а сами алгоритмы все чаще «галлюцинируют», то есть придумывают несуществующие факты с полной уверенностью.

Тем не менее ИИ может быть полезным инструментом для журналистов и аналитиков, особенно в обработке больших массивов данных. Но когда речь идет о сложных темах и проверке фактов, человеческий интеллект пока незаменим.

последние новости