В важных ситуациях, таких как медицинская помощь или участие в телевикторине «Своя игра», лучше признать «Я не знаю», чем дать неверный ответ. Однако многие приложения с ИИ всё равно дают потенциально неправильные ответы, не признавая неуверенность.
Учёные из Университета Джонса Хопкинса предложили новый метод, позволяющий ИИ тратить больше времени на обдумывание задач и использовать показатель уверенности для признания своей неуверенности. Это важно для медицины, юриспруденции и инженерии.
Исследование опубликовано на сервере препринтов arXiv и будет представлено на конференции Ассоциации компьютерной лингвистики в Вене.
Учёные обнаружили, что более длинные цепочки рассуждений повышают точность моделей, но даже при достаточном времени на обдумывание ошибки всё равно возможны, особенно при отсутствии наказания за них. Высокая планка надёжности и длительное обдумывание иногда снижают точность моделей.