論文の概要: MARCO: Meta-Reflection with Cross-Referencing for Code Reasoning
- arxiv url: http://arxiv.org/abs/2505.17481v1
- Date: Fri, 23 May 2025 05:21:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.831261
- Title: MARCO: Meta-Reflection with Cross-Referencing for Code Reasoning
- Title(参考訳): MARCO: コード推論のためのクロスリファレンスを備えたメタリフレクション
- Authors: Yusheng Zhao, Xiao Luo, Weizhi Zhang, Wei Ju, Zhiping Xiao, Philip S. Yu, Ming Zhang,
- Abstract要約: 我々は、LLMエージェントが提案するソリューションごとにコード推論において徐々に賢くなる方法を探る。
認知進化的視点を取り入れたメタリフレクション(Meta-Reflection with Cross-Reference, MARCO)という新しいフレームワークを提案する。
コード推論において,様々なデータセットに対して実験を行い,MARCOの有効性を実証した。
- 参考スコア(独自算出の注目度): 37.0077348617437
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The ability to reason is one of the most fundamental capabilities of large language models (LLMs), enabling a wide range of downstream tasks through sophisticated problem-solving. A critical aspect of this is code reasoning, which involves logical reasoning with formal languages (i.e., programming code). In this paper, we enhance this capability of LLMs by exploring the following question: how can an LLM agent become progressively smarter in code reasoning with each solution it proposes, thereby achieving substantial cumulative improvement? Most existing research takes a static perspective, focusing on isolated problem-solving using frozen LLMs. In contrast, we adopt a cognitive-evolving perspective and propose a novel framework named Meta-Reflection with Cross-Referencing (MARCO) that enables the LLM to evolve dynamically during inference through self-improvement. From the perspective of human cognitive development, we leverage both knowledge accumulation and lesson sharing. In particular, to accumulate knowledge during problem-solving, we propose meta-reflection that reflects on the reasoning paths of the current problem to obtain knowledge and experience for future consideration. Moreover, to effectively utilize the lessons from other agents, we propose cross-referencing that incorporates the solution and feedback from other agents into the current problem-solving process. We conduct experiments across various datasets in code reasoning, and the results demonstrate the effectiveness of MARCO.
- Abstract(参考訳): この能力は大規模言語モデル(LLM)の最も基本的な機能の一つであり、洗練された問題解決を通じて幅広いダウンストリームタスクを可能にする。
コード推論は形式言語(プログラミングコード)による論理的推論を含む。
本稿では,LLMエージェントが提案する各ソリューションでコード推論を段階的に賢くし,累積的な改善を実現するにはどうすればよいのか,という疑問を提起することによって,LLMのこの能力を向上させる。
既存のほとんどの研究は、凍結LDMを用いた独立した問題解決に焦点を当て、静的な視点を採っている。
対照的に、認知進化的な視点を採用し、自己改善を通じてLLMが動的に進化することを可能にするMeta-Reflection with Cross-Reference (MARCO) という新しいフレームワークを提案する。
人間の認知発達の観点からは、知識蓄積と授業共有の両方を活用する。
特に,問題解決の過程で知識を蓄積するために,現在の課題の推論経路を反映したメタリフレクションを提案し,今後の考察のために知識と経験を得る。
さらに、他のエージェントからの学習を効果的に活用するために、他のエージェントからのソリューションとフィードバックを現在の問題解決プロセスに組み込んだ相互参照を提案する。
コード推論において,様々なデータセットに対して実験を行い,MARCOの有効性を実証した。
関連論文リスト
- CausalEval: Towards Better Causal Reasoning in Language Models [16.55801836321059]
因果推論(CR)は知性の重要な側面であり、問題解決、意思決定、世界理解に不可欠である。
言語モデル(LM)は出力に対して有理性を生成することができるが、因果推論を確実に行う能力はいまだに不確実である。
因果推論のためのLMの強化を目的とした研究のレビューであるCausalEvalを紹介する。
論文 参考訳(メタデータ) (2024-10-22T04:18:19Z) - BloomWise: Enhancing Problem-Solving capabilities of Large Language Models using Bloom's-Taxonomy-Inspired Prompts [59.83547898874152]
我々は,Bloomの分類にインスパイアされた新しいプロンプト技術であるBloomWiseを導入し,Large Language Models(LLMs)の性能を向上させる。
より洗練された認知スキルを身につける必要性に関する決定は、LLMによる自己評価に基づいている。
4つの一般的な算数推論データセットの広範な実験において,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-05T09:27:52Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Reinforcement Learning Problem Solving with Large Language Models [0.0]
大規模言語モデル (LLM) には膨大な量の世界知識があり、自然言語処理 (NLP) タスクの性能向上のために様々な分野に応用できるようになっている。
これはまた、人間とAIシステム間の会話に基づく対話による、意図した問題を解決するための、よりアクセスしやすいパラダイムを促進する。
研究科学者」と「レガリー・マター・インテーク」の2つの詳細なケーススタディを通して、我々のアプローチの実践性を示す。
論文 参考訳(メタデータ) (2024-04-29T12:16:08Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。