論文の概要: Learn Like Humans: Use Meta-cognitive Reflection for Efficient Self-Improvement
- arxiv url: http://arxiv.org/abs/2601.11974v1
- Date: Sat, 17 Jan 2026 09:12:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.401447
- Title: Learn Like Humans: Use Meta-cognitive Reflection for Efficient Self-Improvement
- Title(参考訳): 人間らしく学ぶ:メタ認知的リフレクションによる効果的な自己改善
- Authors: Xinmeng Hou, Peiliang Gong, Bohao Qu, Wuqi Wang, Qing Guo, Yang Liu,
- Abstract要約: 本稿では,メタ認知エージェントである反射自己改善(MARS)を提案する。
MARSは、原則に基づくリフレクションと手続き的リフレクションを統合することで、人間の学習を模倣する。
6つのベンチマーク実験により、MARSは最先端の自己進化システムより優れていることが示された。
- 参考スコア(独自算出の注目度): 12.323590647528247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) enable complex autonomous behavior, current agents remain constrained by static, human-designed prompts that limit adaptability. Existing self-improving frameworks attempt to bridge this gap but typically rely on inefficient, multi-turn recursive loops that incur high computational costs. To address this, we propose Metacognitive Agent Reflective Self-improvement (MARS), a framework that achieves efficient self-evolution within a single recurrence cycle. Inspired by educational psychology, MARS mimics human learning by integrating principle-based reflection (abstracting normative rules to avoid errors) and procedural reflection (deriving step-by-step strategies for success). By synthesizing these insights into optimized instructions, MARS allows agents to systematically refine their reasoning logic without continuous online feedback. Extensive experiments on six benchmarks demonstrate that MARS outperforms state-of-the-art self-evolving systems while significantly reducing computational overhead.
- Abstract(参考訳): 大きな言語モデル(LLM)は複雑な自律的な振る舞いを可能にするが、現在のエージェントは適応性を制限する静的な人間設計のプロンプトによって制約される。
既存の自己改善フレームワークはこのギャップを埋めようとしているが、通常は計算コストの高い非効率なマルチターン再帰ループに依存している。
これを解決するために,メタ認知エージェント反射自己改善(MARS)を提案する。
教育心理学にインスパイアされたMARSは、原則に基づくリフレクション(誤りを避けるための規範的ルールの抽出)と手続き的リフレクション(成功のためのステップバイステップ戦略の導出)を統合することで、人間の学習を模倣する。
これらの洞察を最適化された命令に合成することにより、MARSは、継続的なオンラインフィードバックなしに、エージェントが推論ロジックを体系的に洗練することができる。
6つのベンチマークでの大規模な実験により、MARSは最先端の自己進化システムより優れ、計算オーバーヘッドは大幅に減少することが示された。
関連論文リスト
- MemRL: Self-Evolving Agents via Runtime Reinforcement Learning on Episodic Memory [46.632646462295234]
提案するMemRLは,非パラメトリック強化学習をエピソードメモリ上で行うことで,エージェントの自己進化を可能にするフレームワークである。
MemRLは、セマンティックな関連性によって候補をフィルタリングし、学習したQ値に基づいて候補を選択する2相検索機構を採用している。
解析実験により,MemRLは安定性・塑性ジレンマを効果的に調整し,重み付けを伴わずに連続的なランタイム改善を可能にすることを確認した。
論文 参考訳(メタデータ) (2026-01-06T17:14:50Z) - Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - ReaLM: Reflection-Enhanced Autonomous Reasoning with Small Language Models [76.28894983518164]
小型言語モデル (SLM) は大規模言語モデル (LLM) に代わる費用対効果がある。
彼らはしばしば、限られた能力と間違いや一貫性のない答えを生み出す傾向があるため、複雑な推論に苦しむ。
本稿では、垂直領域における堅牢かつ自己充足的推論のための強化学習フレームワークであるReaLMを紹介する。
論文 参考訳(メタデータ) (2025-08-17T14:50:23Z) - Let LRMs Break Free from Overthinking via Self-Braking Tuning [68.93713497579853]
大きな推論モデル(LRM)は思考の長い連鎖を生成することによって推論能力を著しく向上させた。
この性能向上は、生成プロセス中の冗長な推論を大幅に増加させるコストが伴う。
本稿では、モデルが独自の推論プロセスを制御することを許容する観点から、過度に検討する新しいフレームワーク、Self-Braking Tuning(SBT)を提案する。
論文 参考訳(メタデータ) (2025-05-20T16:53:40Z) - Generalising from Self-Produced Data: Model Training Beyond Human Constraints [0.0]
本稿では,AIモデルが新たな知識を自律的に生成し,検証する新しい枠組みを提案する。
このアプローチの中心は、人間のベンチマークを必要とせずに学習をガイドする、無制限で使い捨ての数値報酬である。
論文 参考訳(メタデータ) (2025-04-07T03:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。