Предельно простая методика радикально повышает точность ответов БЯМ
Ключ к пониманию эффекта, описанного в статье — в архитектуре Transformer. Современные БЯМ обрабатывают текст строго слева направо, то есть каждое следующее слово «не знает» о последующих. Это создает «слепое пятно»: модель может упустить контекст, прочитанный в начале длинного запроса.
Повторение запроса решает эту проблему. Когда модель обрабатывает вторую копию промпта, она уже «видела» первую, что позволяет ей обращаться ко всему тексту сразу. Фактически, вторая копия получает двунаправленное внимание, улучшая понимание и точность извлечения информации.
Эксперименты на семи тестовых наборах (включая ARC, MMLU-Pro) показали впечатляющие результаты. В задачах на точное извлечение данных, таких как поиск 25-го имени из списка, точность модели Gemini 2.0 Flash-Lite выросла с 21,33% до 97,33%. При этом метод практически не увеличивает задержку ответа, так как основная нагрузка ложится на этап параллельной предобработки текста.
Однако у метода есть ограничение: он наиболее эффективен для задач без сложных рассуждений — например, классификации или простых вопросов. Если же модель уже использует «цепочку мыслей», повторение промпта становится избыточным и не дает значительного прироста.
Для бизнеса это открытие — редкая возможность бесплатно повысить эффективность, https://venturebeat.com/orchestration/this-new-dead-simple-p... Venture Beat. Менеджерам стоит рассмотреть автоматическое дублирование промптов в пайплайнах для задач прямого ответа, что может снизить затраты на использование более мощных моделей. При этом следует учесть новые риски: повторение может как усилить защитные ограничения модели, так и сделать ее более уязвимой к хакерским атакам.
Авторы исследования напоминает, что даже продвинутые ИИ-системы все еще ограничены своей архитектурой. Пока не появятся новые решения, простые решения вроде повторения запроса могут быть самым практичным способом получить более точный ответ. Иногда лучшее решение — просто сказать дважды.
Ученые из Университета Пенсильвании https://hightech.plus/2025/09/01/psihologicheskaya-obrabotka..., что GPT-4o Mini уязвим к методам психологического убеждения. Используя такие принципы влияния, как симпатия или социальное доказательство, исследователи сильно повысили вероятность выполнения моделью потенциально опасных запросов. Например, они смогли заставить ChatGPT объяснить, как синтезировать лидокаин.
