論文の概要: MAR:Multi-Agent Reflexion Improves Reasoning Abilities in LLMs
- arxiv url: http://arxiv.org/abs/2512.20845v1
- Date: Tue, 23 Dec 2025 23:47:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.635353
- Title: MAR:Multi-Agent Reflexion Improves Reasoning Abilities in LLMs
- Title(参考訳): MAR:マルチエージェント反射はLDMの共振能力を改善する
- Authors: Onat Ozer, Grace Wu, Yuchen Wang, Daniel Dosti, Honghao Zhang, Vivi De La Rue,
- Abstract要約: 反射を生成する方法としてマルチパーソナディベータを用いたマルチエージェントを提案する。
EM HotPot QA(質問応答)47%,HumanEval(プログラミング)82.7%の精度を示す。
- 参考スコア(独自算出の注目度): 14.425933771439091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs have shown the capacity to improve their performance on reasoning tasks through reflecting on their mistakes, and acting with these reflections in mind. However, continual reflections of the same LLM onto itself exhibit degeneration of thought, where the LLM continues to repeat the same errors again and again even with the knowledge that its wrong. To address this problem, we instead introduce multi-agent with multi-persona debators as the method to generate reflections. Through out extensive experimentation, we've found that the leads to better diversity of in the reflections generated by the llm agent. We demonstrate an accuracy of 47% EM HotPot QA (question answering) and 82.7% on HumanEval (programming), both performances surpassing reflection with a single llm.
- Abstract(参考訳): LLMは、ミスを反映し、これらのリフレクションを念頭に置いて行動することで、タスクの推論におけるパフォーマンスを改善する能力を示した。
しかし、同じLLMの連続的な反射は思考の退化を示し、LLMは同じ誤りを何度も繰り返す。
この問題に対処するために、リフレクションを生成する方法としてマルチパーソナディベータを用いたマルチエージェントを導入する。
広範囲にわたる実験により、llmエージェントによって生成された反射の多様性が向上することがわかった。
我々は,HumanEval(プログラミング)における47%のEM HotPot QA(質問応答)と82.7%の精度を示す。
関連論文リスト
- Fact-and-Reflection (FaR) Improves Confidence Calibration of Large Language Models [84.94220787791389]
ファクト・アンド・リフレクション(FaR)プロンプトを提案し,LLMキャリブレーションを2ステップで改善する。
実験の結果、FaRはキャリブレーションが大幅に向上し、期待される誤差を23.5%下げた。
FaRは、信頼性の低いシナリオにおいて、言語的に関心を表現できる能力さえも持っています。
論文 参考訳(メタデータ) (2024-02-27T01:37:23Z) - Mirror: A Multiple-perspective Self-Reflection Method for Knowledge-rich Reasoning [18.5717357875955]
大規模言語モデル(LLM)は、外部リソースにアクセスすることなく知識に富んだ問題に対処する。
知識豊富な推論のための多重パースペクティブ自己回帰法であるMirrorを提案する。
論文 参考訳(メタデータ) (2024-02-22T20:57:17Z) - Self-Contrast: Better Reflection Through Inconsistent Solving Perspectives [45.87069217634753]
研究によると、外部からのフィードバックがなければ、Large Language Modelの本質的なリフレクションは不安定である。
我々の調査によると、重要なボトルネックは自己評価されたフィードバックの品質である。
要求に合わせて様々な解決の観点を適応的に探求し、相違点を対比し、これらの相違点を再検討し、相違点を排除するために使用できるチェックリストにまとめます。
論文 参考訳(メタデータ) (2024-01-04T00:32:33Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。