ИИ-чатботы дают неверные ответы: результаты теста Which?

Британская организация «Which?» проверила шесть популярных чат-ботов на базе ИИ. Результаты показали, что ни один из них не может быть доверен полностью, так как часто дает неверные или рискованные советы. Эксперты рекомендуют тщательно проверять ответы ИИ и всегда сверяться с источниками.


ИИ-чатботы дают неверные ответы: результаты теста Which?

Искусственный интеллект предоставляет готовые ответы на любые вопросы, но информация не всегда бывает точной. Об этом свидетельствует тест, проведенный британской организацией по защите прав потребителей «Which?». Шесть чат-ботов на базе ИИ прошли тест из 40 вопросов в сферах финансов, права, здоровья, питания, а также прав потребителей и путешествий. Затем эксперты оценили качество ответов. Результаты теста показали, что большинство чат-ботов хорошо справляются, но ни к одному из них нельзя слепо доверять. Лучше всего справился чат-бот Perplexity с 72% правильных ответов, за ним следует AI Mode от Google с 70%, затем Google Gemini с 68%, Microsoft Copilot с 67% и ChatGPT с 65%. Чат-бот от Meta AI занял последнее место с 54%. Согласно результатам теста, искусственный интеллект иногда игнорировал региональные различия или советовал рискованное или потенциально незаконное поведение. В то же время другие ответы опирались на сомнительные, устаревшие источники или игнорировали бесплатные альтернативы платным услугам, преуменьшая права потребителей. Вот три совета по более безопасному использованию ответов искусственного интеллекта:

— Тщательно проверяйте каждый ответ ИИ, особенно когда речь идет о важных финансовых, юридических или медицинских вопросах. — Всегда спрашивайте у искусственного интеллекта о его источниках и консультируйтесь с другим экспертом. — Формулируйте вопросы для чат-ботов на базе ИИ как можно точнее и предоставляйте как можно больше базовой информации; это значительно улучшает качество ответов.

Последние новости

Посмотреть все новости