論文の概要: MeLA: A Metacognitive LLM-Driven Architecture for Automatic Heuristic Design
- arxiv url: http://arxiv.org/abs/2507.20541v1
- Date: Mon, 28 Jul 2025 05:56:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.878539
- Title: MeLA: A Metacognitive LLM-Driven Architecture for Automatic Heuristic Design
- Title(参考訳): MeLA: 自動ヒューリスティック設計のためのメタ認知型LLM駆動アーキテクチャ
- Authors: Zishang Qiu, Xinan Chen, Long Chen, Ruibin Bai,
- Abstract要約: MeLAはメタ認知型LLM駆動アーキテクチャで、AHD(Automatic Heuristic Design)の新しいパラダイムを提供する
MeLAは、これらを生成する際にLLM(Large Language Model)を導くために使われる命令プロンプトを進化させる。
プロンプト進化」のこのプロセスは、新しいメタ認知フレームワークによって駆動される。
- 参考スコア(独自算出の注目度): 8.025492778235199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces MeLA, a Metacognitive LLM-Driven Architecture that presents a new paradigm for Automatic Heuristic Design (AHD). Traditional evolutionary methods operate directly on heuristic code; in contrast, MeLA evolves the instructional prompts used to guide a Large Language Model (LLM) in generating these heuristics. This process of "prompt evolution" is driven by a novel metacognitive framework where the system analyzes performance feedback to systematically refine its generative strategy. MeLA's architecture integrates a problem analyzer to construct an initial strategic prompt, an error diagnosis system to repair faulty code, and a metacognitive search engine that iteratively optimizes the prompt based on heuristic effectiveness. In comprehensive experiments across both benchmark and real-world problems, MeLA consistently generates more effective and robust heuristics, significantly outperforming state-of-the-art methods. Ultimately, this research demonstrates the profound potential of using cognitive science as a blueprint for AI architecture, revealing that by enabling an LLM to metacognitively regulate its problem-solving process, we unlock a more robust and interpretable path to AHD.
- Abstract(参考訳): 本稿ではメタ認知型LLM駆動アーキテクチャであるMeLAを紹介し,AHD(Automatic Heuristic Design)の新しいパラダイムを提案する。
従来の進化的手法はヒューリスティックなコードを直接操作するが、それに対してMeLAは、これらのヒューリスティックなコードを生成するためにLLM(Large Language Model)を導くために使われる命令プロンプトを進化させる。
この「プロンプト進化」のプロセスは、システムがパフォーマンスフィードバックを分析し、その生成戦略を体系的に洗練する新しいメタ認知フレームワークによって駆動される。
MeLAのアーキテクチャは、初期戦略的なプロンプトを構築するための問題解析器と、欠陥コードを修正するエラー診断システムと、ヒューリスティックな有効性に基づいてプロンプトを反復的に最適化するメタ認知検索エンジンを統合する。
ベンチマークと実世界の問題の両方にわたる包括的な実験において、MeLAは一貫してより効率的で堅牢なヒューリスティックを発生し、最先端の手法を著しく上回っている。
最終的に、この研究は認知科学をAIアーキテクチャの青写真として使う大きな可能性を実証し、LLMがその問題解決プロセスをメタ認知的に制御することで、より堅牢で解釈可能なAHDへのパスを解き放つことを明らかにした。
関連論文リスト
- An Intelligent Fault Self-Healing Mechanism for Cloud AI Systems via Integration of Large Language Models and Deep Reinforcement Learning [1.1149781202731994]
大規模言語モデル(LLM)と深層強化学習(DRL)を統合したインテリジェントフォールト自己修復機構(IFSHM)を提案する。
IFSHMは,クラウドAIシステムにおけるセマンティック理解とポリシ最適化機能を備えた障害復旧フレームワークの実現を目的としている。
クラウドフォールトインジェクションプラットフォームの実験的結果は、既存のDRLとルールメソッドと比較して、IFSHMフレームワークが未知の障害シナリオでシステムリカバリ時間を37%短縮することを示している。
論文 参考訳(メタデータ) (2025-06-09T04:14:05Z) - CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Large Language Model Agent: A Survey on Methodology, Applications and Challenges [88.3032929492409]
大きな言語モデル(LLM)エージェントは、目標駆動の振る舞いと動的適応能力を持ち、人工知能への重要な経路を示す可能性がある。
本調査は, LLMエージェントシステムを方法論中心の分類法により体系的に分解する。
私たちの作業は、エージェントの構築方法、コラボレーション方法、時間の経過とともにどのように進化するか、という、統一されたアーキテクチャの視点を提供します。
論文 参考訳(メタデータ) (2025-03-27T12:50:17Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - ALPINE: Unveiling the Planning Capability of Autoregressive Learning in Language Models [48.559185522099625]
計画は人間の知性と現代大言語モデル(LLM)の両方の重要な要素である
本稿では,トランスフォーマーを用いたLLMにおける次の単語予測機構による計画能力の出現について検討する。
論文 参考訳(メタデータ) (2024-05-15T09:59:37Z) - Unleashing the potential of prompt engineering for large language models [1.6006550105523192]
大規模言語モデル(LLM)の能力を解き放つ上で,迅速なエンジニアリングが果たす重要な役割を概観する
自己整合性、思考の連鎖、そして生成された知識などの技術を含む、素早い工学の基礎的方法論と先進的な方法論の両方を検査する。
AIセキュリティの側面、特に迅速なエンジニアリングの脆弱性を悪用する敵攻撃について論じる。
論文 参考訳(メタデータ) (2023-10-23T09:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。