論文の概要: CogMCTS: A Novel Cognitive-Guided Monte Carlo Tree Search Framework for Iterative Heuristic Evolution with Large Language Models
- arxiv url: http://arxiv.org/abs/2512.08609v2
- Date: Thu, 11 Dec 2025 08:46:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 14:11:15.205286
- Title: CogMCTS: A Novel Cognitive-Guided Monte Carlo Tree Search Framework for Iterative Heuristic Evolution with Large Language Models
- Title(参考訳): CogMCTS: 大規模言語モデルを用いた反復的ヒューリスティック進化のための認知誘導モンテカルロ木探索フレームワーク
- Authors: Hui Wang, Yang Liu, Xiaoyu Zhang, Chaoxu Mu,
- Abstract要約: 本稿では,複雑な最適化問題に対する認知誘導型モンテカルロ木探索フレームワーク(CogMCTS)を提案する。
このフレームワークには、複数ラウンドの認知フィードバックが組み込まれ、過去のノード情報、経験、ネガティブな結果が組み込まれている。
実験結果から, CogMCTSは, 既存のLCMベースのAHD法よりも安定性, 効率, ソリューション品質に優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 19.74492388969998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic Heuristic Design (AHD) is an effective framework for solving complex optimization problems. The development of large language models (LLMs) enables the automated generation of heuristics. Existing LLM-based evolutionary methods rely on population strategies and are prone to local optima. Integrating LLMs with Monte Carlo Tree Search (MCTS) improves the trade-off between exploration and exploitation, but multi-round cognitive integration remains limited and search diversity is constrained. To overcome these limitations, this paper proposes a novel cognitive-guided MCTS framework (CogMCTS). CogMCTS tightly integrates the cognitive guidance mechanism of LLMs with MCTS to achieve efficient automated heuristic optimization. The framework employs multi-round cognitive feedback to incorporate historical experience, node information, and negative outcomes, dynamically improving heuristic generation. Dual-track node expansion combined with elite heuristic management balances the exploration of diverse heuristics and the exploitation of high-quality experience. In addition, strategic mutation modifies the heuristic forms and parameters to further enhance the diversity of the solution and the overall optimization performance. The experimental results indicate that CogMCTS outperforms existing LLM-based AHD methods in stability, efficiency, and solution quality.
- Abstract(参考訳): 自動ヒューリスティック設計(AHD)は、複雑な最適化問題の解決に有効なフレームワークである。
大規模言語モデル(LLM)の開発により、ヒューリスティックの自動生成が可能となる。
既存のLLMベースの進化的手法は人口戦略に依存しており、局所最適である。
LLMをモンテカルロ木探索(MCTS)と統合することは、探索と搾取の間のトレードオフを改善するが、マルチラウンド認知統合は限定的であり、探索の多様性は制限されている。
これらの制約を克服するために,認知誘導型MCTSフレームワーク(CogMCTS)を提案する。
CogMCTSは、LLMの認知誘導機構をMCTSと密に統合し、効率的な自動ヒューリスティック最適化を実現する。
このフレームワークは、過去の経験、ノード情報、ネガティブな結果を統合するために、複数ラウンドの認知フィードバックを採用し、ヒューリスティックな生成を動的に改善する。
デュアルトラックノード拡張とエリートヒューリスティックマネジメントは、多様なヒューリスティックの探索と高品質な経験の活用のバランスをとる。
さらに、戦略突然変異は、解の多様性と全体的な最適化性能をさらに高めるために、ヒューリスティックな形式やパラメータを変更する。
実験結果から, CogMCTSは, 既存のLCMベースのAHD法よりも安定性, 効率, ソリューション品質に優れていたことが示唆された。
関連論文リスト
- ART: Adaptive Response Tuning Framework -- A Multi-Agent Tournament-Based Approach to LLM Response Optimization [0.0]
大規模言語モデル(LLM)は、自然言語の理解と生成において顕著な能力を示した。
本稿では,トーナメント型ELOランキングとマルチエージェント推論を用いたART(Adaptive Response Tuning)を提案する。
論文 参考訳(メタデータ) (2025-11-29T20:16:11Z) - Evaluating LLMs for Combinatorial Optimization: One-Phase and Two-Phase Heuristics for 2D Bin-Packing [0.6670498055582527]
本稿では,Large Language Models (LLM) の最適化能力を評価するための評価フレームワークを提案する。
我々は,LLMと進化的アルゴリズムを組み合わせた体系的手法を導入し,解の生成と洗練を行う。
論文 参考訳(メタデータ) (2025-09-26T12:19:22Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - SEEA-R1: Tree-Structured Reinforcement Fine-Tuning for Self-Evolving Embodied Agents [58.174206358223415]
自己進化型エボダイドエージェント(SeEA-R1)は、自己進化型エボダイドエージェント用に設計された最初の強化微細調整フレームワークである。
本研究は,SEEA-R1が自律適応と報酬駆動型自己進化をサポートすることを示す。
論文 参考訳(メタデータ) (2025-06-26T18:00:07Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - MRSO: Balancing Exploration and Exploitation through Modified Rat Swarm Optimization for Global Optimization [3.7503163440313463]
本研究では,探索と搾取のバランスを高めるため,MRSO(Modified Rat Swarm)を導入する。
MRSOは探索効率と耐久性を改善するために独自の改良を加えており、溶接ビーム、圧力容器、ギヤトレインの設計といった挑戦的な工学的問題に適合している。
CEC 2019ベンチマークでは、MRSOは10機能中6機能で標準RSOよりも優れており、優れたグローバル検索能力を示している。
論文 参考訳(メタデータ) (2024-09-20T14:52:25Z) - Expert-Token Resonance MoE: Bidirectional Routing with Efficiency Affinity-Driven Active Selection [19.365009652356793]
エキスパート-トークン共鳴(ETR)は、専門家-トークン相互作用を再想像する理論的な双方向ルーティング機構である。
ETRは、ベースラインのMoE実装と比較して、エンドツーエンドのトレーニング効率が5.4%-46.6%向上している。
論文 参考訳(メタデータ) (2024-05-24T02:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。