Аналитики зафиксировали значительный рост недостоверной информации в ответах популярных чат-ботов, включая ChatGPT и Perplexity. Доля ложных утверждений в ответах ИИ-моделей увеличилась с 18% до 35% за последний год. Об этом пишет газета «Известия» со ссылкой на зарубежную компанию NewsGuard.
Рост ложных ответов в результатах оказался таким:
- Чат-бот Pi (Inflection) – до 57%;
- Perplexity (Perplexity AI) – рост с 0% до 47%;
- ChatGPT (Open AI) – рост с 33% до 40%;
- Grok (xAI) – рост с 13% до 33%;
- Gemini (Google) – 17%.
- Claude (Anthropic) – 10%.
«Наличие ссылок не гарантирует достоверности: модели нередко цитируют сайты-двойники или псевдо-СМИ, принимая их за авторитетные издания», – отмечает директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.
Наибольший уровень ошибок зафиксирован при работе с русскоязычными и китайскими запросами, где доля недостоверных ответов превышает 50%. Ситуацию усугубляют целенаправленные кампании по манипуляции ИИ-моделями.




SIA.RU: Главное