論文の概要: Feedback Friction: LLMs Struggle to Fully Incorporate External Feedback
- arxiv url: http://arxiv.org/abs/2506.11930v1
- Date: Fri, 13 Jun 2025 16:31:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.877769
- Title: Feedback Friction: LLMs Struggle to Fully Incorporate External Feedback
- Title(参考訳): フィードバックフリクション:LLMは完全な外部フィードバックを組み込む
- Authors: Dongwei Jiang, Alvin Zhang, Andrew Wang, Nicholas Andrews, Daniel Khashabi,
- Abstract要約: LLMは外部からのフィードバックを受けると応答を改善する能力を持っている。
これらのモデルが外部からのフィードバックをいかに効果的かつ徹底的に組み込むことができるかは、まだ不明である。
- 参考スコア(独自算出の注目度): 20.985320124495566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown LLMs possess some ability to improve their responses when given external feedback. However, it remains unclear how effectively and thoroughly these models can incorporate extrinsic feedback. In an ideal scenario, if LLMs receive near-perfect and complete feedback, we would expect them to fully integrate the feedback and change their incorrect answers to correct ones. In this paper, we systematically investigate LLMs' ability to incorporate feedback by designing a controlled experimental environment. For each problem, a solver model attempts a solution, then a feedback generator with access to near-complete ground-truth answers produces targeted feedback, after which the solver tries again. We evaluate this pipeline across a diverse range of tasks, including math reasoning, knowledge reasoning, scientific reasoning, and general multi-domain evaluations with state-of-the-art language models including Claude 3.7 (with and without extended thinking). Surprisingly, even under these near-ideal conditions, solver models consistently show resistance to feedback, a limitation that we term FEEDBACK FRICTION. To mitigate this limitation, we experiment with sampling-based strategies like progressive temperature increases and explicit rejection of previously attempted incorrect answers, which yield improvements but still fail to help models achieve target performance. We also perform a rigorous exploration of potential causes of FEEDBACK FRICTION, ruling out factors such as model overconfidence and data familiarity. We hope that highlighting this issue in LLMs and ruling out several apparent causes will help future research in self-improvement.
- Abstract(参考訳): 近年の研究では、LLMは外部からのフィードバックを受けたときの応答を改善する能力を持っていることが示されている。
しかし、これらのモデルが外部からのフィードバックをいかに効果的かつ徹底的に組み込むことができるかは定かではない。
理想的なシナリオとして、LLMがほぼ完璧で完全なフィードバックを受けた場合、フィードバックを完全に統合し、誤った回答を正しい回答に変更することを期待します。
本稿では,制御された実験環境を設計することにより,LLMがフィードバックを組み込む能力について系統的に検討する。
各問題に対して、解法モデルが解法を試み、次いで、ほぼ完全な基底真実解へのアクセスを持つフィードバック生成器が目標とするフィードバックを生成し、解法が再び試みる。
このパイプラインは、数学の推論、知識の推論、科学的推論、そしてクロード3.7を含む最先端言語モデルによる一般的なマルチドメイン評価を含む様々なタスクにわたって評価する。
驚くべきことに、これらのニアイデアルな条件下であっても、ソルバモデルは常にフィードバックに対する抵抗を示しており、これはFEEDBACK FRICTION(英語版)と呼ばれる制限である。
この制限を緩和するために、進行温度の上昇や以前に試みられた誤った回答の明示的な拒絶のようなサンプリングベースの戦略を実験し、改善するが、モデルが目標性能を達成するのに失敗する。
また、FEEDBACK FRICTIONの潜在的な原因を厳格に調査し、モデル過信やデータ親しみなどの要因を除外する。
この問題をLSMで強調し、いくつかの明らかな原因を除外することで、今後の自己改善研究に役立つと期待している。
関連論文リスト
- Recursive Chain-of-Feedback Prevents Performance Degradation from
Redundant Prompting [0.4662017507844857]
本稿では,このような反復行動とその効果について,新しい設定,CoF(Chain-of-Feedback)を定義することによって検討する。
これらの問題を緩和するために、新しい手法、Recursive Chain-of-Feedback (R-CoF)を提案する。
論文 参考訳(メタデータ) (2024-02-05T00:44:28Z) - Self-Contrast: Better Reflection Through Inconsistent Solving Perspectives [45.87069217634753]
研究によると、外部からのフィードバックがなければ、Large Language Modelの本質的なリフレクションは不安定である。
我々の調査によると、重要なボトルネックは自己評価されたフィードバックの品質である。
要求に合わせて様々な解決の観点を適応的に探求し、相違点を対比し、これらの相違点を再検討し、相違点を排除するために使用できるチェックリストにまとめます。
論文 参考訳(メタデータ) (2024-01-04T00:32:33Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z) - Are You Sure? Challenging LLMs Leads to Performance Drops in The
FlipFlop Experiment [82.60594940370919]
大規模言語モデル(LLM)のマルチターン動作を研究するためのFlipFlop実験を提案する。
モデルが平均46%の時間で回答を反転させ、全てのモデルが最初の予測と最終予測の間に精度を低下させ、平均17%の低下(FlipFlop効果)を示す。
我々はオープンソースのLLMで微調整実験を行い、合成されたデータに対する微調整は、性能劣化を60%低減させることができるが、サイコファンティックな振る舞いを完全には解決できないことを発見した。
論文 参考訳(メタデータ) (2023-11-14T23:40:22Z) - MAF: Multi-Aspect Feedback for Improving Reasoning in Large Language
Models [64.70153487607172]
言語モデル(LM)は、様々な自然言語タスクにおいて印象的なパフォーマンスを示している。
自然言語の推論に関しては、いまだに幻覚、誤った中間推論ステップの生成、数学的誤りなどの課題に直面している。
近年の研究では、フィードバックによる自己改善によるLMの強化に焦点が当てられている。
本研究では,凍結したLMや外部ツールなど,複数のフィードバックモジュールを統合する反復的改善フレームワークであるMulti-Aspect Feedbackを提案する。
論文 参考訳(メタデータ) (2023-10-19T02:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。