論文の概要: CogMCTS: A Novel Cognitive-Guided Monte Carlo Tree Search Framework for Iterative Heuristic Evolution with Large Language Models
- arxiv url: http://arxiv.org/abs/2512.08609v1
- Date: Tue, 09 Dec 2025 13:54:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.981825
- Title: CogMCTS: A Novel Cognitive-Guided Monte Carlo Tree Search Framework for Iterative Heuristic Evolution with Large Language Models
- Title(参考訳): CogMCTS: 大規模言語モデルを用いた反復的ヒューリスティック進化のための認知誘導モンテカルロ木探索フレームワーク
- Authors: Hui Wang, Yang Liu, Xiaoyu Zhang, Chaoxu Mu,
- Abstract要約: LLM(Large Language mod-3 els)は、進化4を自動生成する。
LLMとMonte7 Carlo Tree Searchを統合することで、探索とエクスプロイトの間のトレードオフが改善されるが、マルチ9ラウンドの認知統合は限定的だ。
本稿では,効率的な認知最適化を実現するための新しい認知12誘導MCTSフレームワーク(CogMCTS)を提案する。
- 参考スコア(独自算出の注目度): 19.74492388969998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic Heuristic Design (AHD) is an effective1 framework for solving complex optimization prob-2 lems. The development of large language mod-3 els (LLMs) enables the automated generation of4 heuristics. Existing LLM-based evolutionary meth-5 ods rely on population strategies and are prone6 to local optima. Integrating LLMs with Monte7 Carlo Tree Search (MCTS) improves the trade-off8 between exploration and exploitation, but multi-9 round cognitive integration remains limited and10 search diversity is constrained. To overcome these11 limitations, this paper proposes a novel cognitive-12 guided MCTS framework (CogMCTS). CogMCTS13 tightly integrates the cognitive guidance mecha-14 nism of LLMs with MCTS to achieve efficient au-15 tomated heuristic optimization. The framework16 employs multi-round cognitive feedback to incor-17 porate historical experience, node information, and18 negative outcomes, dynamically improving heuris-19 tic generation. Dual-track node expansion com-20 bined with elite heuristic management balances the21 exploration of diverse heuristics and the exploita-22 tion of high-quality experience. In addition, strate-23 gic mutation modifies the heuristic forms and pa-24 rameters to further enhance the diversity of the so-25 lution and the overall optimization performance.26 The experimental results indicate that CogMCTS27 outperforms existing LLM-based AHD methods in28 stability, efficiency, and solution quality.
- Abstract(参考訳): 自動ヒューリスティック設計(Automatic Heuristic Design, AHD)は、複雑な最適化prob-2 lemを解くための有効な1のフレームワークである。
大規模言語 mod-3 els (LLM) の開発により、4つのヒューリスティックの自動生成が可能となった。
既存のLSMベースの進化メト5 odsは個体群戦略に依存しており、局所的なオプティマの確率は6である。
LLMをMonte7 Carlo Tree Search (MCTS)と統合することは、探索と搾取の間のトレードオフ8を改善するが、マルチ9ラウンドの認知統合は限定的であり、検索の多様性は制限されている。
本稿では,これら11の限界を克服するため,CogMCTSフレームワーク(CogMCTS)を提案する。
CogMCTS13は、LLMの認知誘導メカ-14ニムをMCTSと密に統合し、効率的なau-15トメートヒューリスティック最適化を実現する。
フレームワーク16は、複数ラウンドの認知フィードバックを使用して、歴史的経験、ノード情報、および18の負の結果をインコラートする。
高度ヒューリスティック管理を兼ね備えたデュアルトラックノード拡張com-20は、21年の多様なヒューリスティックの探索と、高品質な経験のエクスプローラ-22オプションのバランスをとる。
さらに、ストレート23のジック変異は、huristic formとpa-24 rametersを修飾し、so-25溶出の多様性と全体的な最適化性能をさらに向上させる。
実験の結果, CogMCTS27は, 従来のLCM法よりも安定性, 効率, 溶液品質が優れていた。
関連論文リスト
- ART: Adaptive Response Tuning Framework -- A Multi-Agent Tournament-Based Approach to LLM Response Optimization [0.0]
大規模言語モデル(LLM)は、自然言語の理解と生成において顕著な能力を示した。
本稿では,トーナメント型ELOランキングとマルチエージェント推論を用いたART(Adaptive Response Tuning)を提案する。
論文 参考訳(メタデータ) (2025-11-29T20:16:11Z) - Evaluating LLMs for Combinatorial Optimization: One-Phase and Two-Phase Heuristics for 2D Bin-Packing [0.6670498055582527]
本稿では,Large Language Models (LLM) の最適化能力を評価するための評価フレームワークを提案する。
我々は,LLMと進化的アルゴリズムを組み合わせた体系的手法を導入し,解の生成と洗練を行う。
論文 参考訳(メタデータ) (2025-09-26T12:19:22Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - SEEA-R1: Tree-Structured Reinforcement Fine-Tuning for Self-Evolving Embodied Agents [58.174206358223415]
自己進化型エボダイドエージェント(SeEA-R1)は、自己進化型エボダイドエージェント用に設計された最初の強化微細調整フレームワークである。
本研究は,SEEA-R1が自律適応と報酬駆動型自己進化をサポートすることを示す。
論文 参考訳(メタデータ) (2025-06-26T18:00:07Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - MRSO: Balancing Exploration and Exploitation through Modified Rat Swarm Optimization for Global Optimization [3.7503163440313463]
本研究では,探索と搾取のバランスを高めるため,MRSO(Modified Rat Swarm)を導入する。
MRSOは探索効率と耐久性を改善するために独自の改良を加えており、溶接ビーム、圧力容器、ギヤトレインの設計といった挑戦的な工学的問題に適合している。
CEC 2019ベンチマークでは、MRSOは10機能中6機能で標準RSOよりも優れており、優れたグローバル検索能力を示している。
論文 参考訳(メタデータ) (2024-09-20T14:52:25Z) - Expert-Token Resonance MoE: Bidirectional Routing with Efficiency Affinity-Driven Active Selection [19.365009652356793]
エキスパート-トークン共鳴(ETR)は、専門家-トークン相互作用を再想像する理論的な双方向ルーティング機構である。
ETRは、ベースラインのMoE実装と比較して、エンドツーエンドのトレーニング効率が5.4%-46.6%向上している。
論文 参考訳(メタデータ) (2024-05-24T02:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。