Posted 18 июля, 09:32
Published 18 июля, 09:32
Modified 19 июля, 06:06
Updated 19 июля, 06:06
Примеры таких недочетов были зафиксированы с моделями ChatGPT и Gemini, которые неправильно выполнили вычитание и неверно определили большее число из двух предложенных.
Как пишет newkhakasiya.online, первым, кто обратил внимание на эту ошибку, был китайский пользователь, который на форуме OpenAI сообщил о странном поведении ChatGPT. Задавая вопрос о том, какое число больше — 9.11 или 9.9, он получил ответ, что 9.11 больше. Этот случай привлек внимание пользователей социальных сетей, которые решили проверить, как нейросеть справится с вычитанием 9.9 из 9.11. Вместо ожидаемого -0.79 результатом стало 0.21. При этом ChatGPT отказалась признать верные расчеты, которые были сделаны с помощью Python. Она считает, что язык программирования недостаточно совершенен, а она все сделала правильно.
В России этот случай также стал объектом обсуждения, особенно после того, как телеграм-канал Neural Shit отметил, что ChatGPT снова ведет себя как человек, пытаясь переложить вину на внешние факторы.
Основная проблема заключается в использовании точки вместо запятой для обозначения десятичных дробей, что запутывает искусственный интеллект. Хотя нейросеть корректно сравнивает числа 0.11 и 0.9, получая -0.79, попытки ChatGPT объяснить свою ошибку выглядят абсурдно: 9.90 > 9.11 > 9.9.
Версия, что ChatGPT по ошибке воспринимает .11 как 1.1, не работает, поскольку в этом случае получалось бы 0.2, а не 0.21. Также выяснилось, что нейросеть забывает о «занятой» единице при выполнении вычитания.
Пользователи обнаружили, что подобные проблемы возникают и с другими моделями, такими как Gemini, Gigachat, Gemma-2-9b. Phi-3 Mini считает, что .11 больше, чем .9. В то же время Sonet 3.5 и YandexGPT справляются с задачей, хотя и не всегда успешно.
Таким образом, необходимо быть внимательнее и перепроверять результаты, полученные от нейросетей, особенно когда речь идет о простых математических задачах, которые должны быть легко решаемы даже школьниками.