Постоянное обновление памяти у LLM снижает точность: исследование с GPT-5.4 показало ухудшение на 54%

Исследователи обнаружили, что консолидация эпизодической памяти в текстовый банк у LLM-агентов со временем ухудшает их производительность. В эксперименте с GPT-5.4 модель стала ошибаться в 54% задач ARC-AGI, которые ранее решала без памяти. Лучшие результаты показала стратегия сохранения сырых траекторий...
Copyright information of photo and video materials was taken from the website «RusNews» , more details in our Terms of Use
Analysis
×