論文の概要: CogMCTS: A Novel Cognitive-Guided Monte Carlo Tree Search Framework for Iterative Heuristic Evolution with Large Language Models
- arxiv url: http://arxiv.org/abs/2512.08609v2
- Date: Thu, 11 Dec 2025 08:46:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 14:11:15.205286
- Title: CogMCTS: A Novel Cognitive-Guided Monte Carlo Tree Search Framework for Iterative Heuristic Evolution with Large Language Models
- Title(参考訳): CogMCTS: 大規模言語モデルを用いた反復的ヒューリスティック進化のための認知誘導モンテカルロ木探索フレームワーク
- Authors: Hui Wang, Yang Liu, Xiaoyu Zhang, Chaoxu Mu,
- Abstract要約: 本稿では,複雑な最適化問題に対する認知誘導型モンテカルロ木探索フレームワーク(CogMCTS)を提案する。
このフレームワークには、複数ラウンドの認知フィードバックが組み込まれ、過去のノード情報、経験、ネガティブな結果が組み込まれている。
実験結果から, CogMCTSは, 既存のLCMベースのAHD法よりも安定性, 効率, ソリューション品質に優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 19.74492388969998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic Heuristic Design (AHD) is an effective framework for solving complex optimization problems. The development of large language models (LLMs) enables the automated generation of heuristics. Existing LLM-based evolutionary methods rely on population strategies and are prone to local optima. Integrating LLMs with Monte Carlo Tree Search (MCTS) improves the trade-off between exploration and exploitation, but multi-round cognitive integration remains limited and search diversity is constrained. To overcome these limitations, this paper proposes a novel cognitive-guided MCTS framework (CogMCTS). CogMCTS tightly integrates the cognitive guidance mechanism of LLMs with MCTS to achieve efficient automated heuristic optimization. The framework employs multi-round cognitive feedback to incorporate historical experience, node information, and negative outcomes, dynamically improving heuristic generation. Dual-track node expansion combined with elite heuristic management balances the exploration of diverse heuristics and the exploitation of high-quality experience. In addition, strategic mutation modifies the heuristic forms and parameters to further enhance the diversity of the solution and the overall optimization performance. The experimental results indicate that CogMCTS outperforms existing LLM-based AHD methods in stability, efficiency, and solution quality.
- Abstract(参考訳): 自動ヒューリスティック設計(AHD)は、複雑な最適化問題の解決に有効なフレームワークである。
大規模言語モデル(LLM)の開発により、ヒューリスティックの自動生成が可能となる。
既存のLLMベースの進化的手法は人口戦略に依存しており、局所最適である。
LLMをモンテカルロ木探索(MCTS)と統合することは、探索と搾取の間のトレードオフを改善するが、マルチラウンド認知統合は限定的であり、探索の多様性は制限されている。
これらの制約を克服するために,認知誘導型MCTSフレームワーク(CogMCTS)を提案する。
CogMCTSは、LLMの認知誘導機構をMCTSと密に統合し、効率的な自動ヒューリスティック最適化を実現する。
このフレームワークは、過去の経験、ノード情報、ネガティブな結果を統合するために、複数ラウンドの認知フィードバックを採用し、ヒューリスティックな生成を動的に改善する。
デュアルトラックノード拡張とエリートヒューリスティックマネジメントは、多様なヒューリスティックの探索と高品質な経験の活用のバランスをとる。
さらに、戦略突然変異は、解の多様性と全体的な最適化性能をさらに高めるために、ヒューリスティックな形式やパラメータを変更する。
実験結果から, CogMCTSは, 既存のLCMベースのAHD法よりも安定性, 効率, ソリューション品質に優れていたことが示唆された。
関連論文リスト
- ART: Adaptive Response Tuning Framework -- A Multi-Agent Tournament-Based Approach to LLM Response Optimization [0.0]
大規模言語モデル(LLM)は、自然言語の理解と生成において顕著な能力を示した。
本稿では,トーナメント型ELOランキングとマルチエージェント推論を用いたART(Adaptive Response Tuning)を提案する。
論文 参考訳(メタデータ) (2025-11-29T20:16:11Z) - Experience-Guided Reflective Co-Evolution of Prompts and Heuristics for Automatic Algorithm Design [124.54166764570972]
組合せ最適化問題は伝統的に手作りのアルゴリズムで取り組まれている。
最近の進歩は、大規模言語モデルによる自動設計の可能性を強調している。
本稿では,自動アルゴリズム設計のためのPmpt and Heuristics (EvoPH) を用いた経験進化的リフレクティブ・ガイドを提案する。
論文 参考訳(メタデータ) (2025-09-29T09:24:09Z) - Evaluating LLMs for Combinatorial Optimization: One-Phase and Two-Phase Heuristics for 2D Bin-Packing [0.6670498055582527]
本稿では,Large Language Models (LLM) の最適化能力を評価するための評価フレームワークを提案する。
我々は,LLMと進化的アルゴリズムを組み合わせた体系的手法を導入し,解の生成と洗練を行う。
論文 参考訳(メタデータ) (2025-09-26T12:19:22Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - SEEA-R1: Tree-Structured Reinforcement Fine-Tuning for Self-Evolving Embodied Agents [58.174206358223415]
自己進化型エボダイドエージェント(SeEA-R1)は、自己進化型エボダイドエージェント用に設計された最初の強化微細調整フレームワークである。
本研究は,SEEA-R1が自律適応と報酬駆動型自己進化をサポートすることを示す。
論文 参考訳(メタデータ) (2025-06-26T18:00:07Z) - Large Language Models for Combinatorial Optimization of Design Structure Matrix [8.702426326610555]
複雑なエンジニアリングシステムでは、コンポーネントや開発活動間の依存関係は、しばしば設計構造マトリックス(DSM)を用いてモデル化され分析される。
フィードバックループを最小限に抑え、モジュール性やプロセス効率を向上させるためにDSM内の要素を再編成することは、エンジニアリング設計と運用において困難な最適化問題となっている。
本稿では,DSMシークエンシングの反復的最適化のために,ネットワークトポロジとコンテキストドメイン知識を統合した新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-11T13:53:35Z) - CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z) - MCTS-RAG: Enhancing Retrieval-Augmented Generation with Monte Carlo Tree Search [61.11836311160951]
本稿では,知識集約型タスクにおける小言語モデルの推論能力を高める新しいアプローチであるMCTS-RAGを紹介する。
通常、推論から独立して情報を取得する標準的なRAG法とは異なり、MCTS-RAGは構造化推論と適応的検索を組み合わせる。
この統合されたアプローチは意思決定を強化し、幻覚を減らし、事実の正確性と応答の整合性を向上させる。
論文 参考訳(メタデータ) (2025-03-26T17:46:08Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.431866560904753]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - An LLM-Empowered Adaptive Evolutionary Algorithm For Multi-Component Deep Learning Systems [17.78934802009711]
多目的進化アルゴリズム(MOEA)は、複雑な多成分アプリケーションにおいて最適な解を求めるために広く用いられている。
本稿では,MCDLシステムにおける安全性違反を検出する適応的進化探索アルゴリズムである$mu$MOEAを提案する。
実験の結果,$mu$MOEAは進化探索の効率と多様性を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2025-01-01T13:19:58Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - Progressive Multimodal Reasoning via Active Retrieval [64.74746997923967]
多段階多モーダル推論タスクは、大規模言語モデル(MLLM)に重大な課題をもたらす
本稿では,MLLMの推論能力の向上を目的とした汎用フレームワークAR-MCTSを提案する。
我々は,AR-MCTSがサンプリングの多様性と精度を最適化し,信頼性の高いマルチモーダル推論を実現することを示す。
論文 参考訳(メタデータ) (2024-12-19T13:25:39Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - MRSO: Balancing Exploration and Exploitation through Modified Rat Swarm Optimization for Global Optimization [3.7503163440313463]
本研究では,探索と搾取のバランスを高めるため,MRSO(Modified Rat Swarm)を導入する。
MRSOは探索効率と耐久性を改善するために独自の改良を加えており、溶接ビーム、圧力容器、ギヤトレインの設計といった挑戦的な工学的問題に適合している。
CEC 2019ベンチマークでは、MRSOは10機能中6機能で標準RSOよりも優れており、優れたグローバル検索能力を示している。
論文 参考訳(メタデータ) (2024-09-20T14:52:25Z) - Expert-Token Resonance MoE: Bidirectional Routing with Efficiency Affinity-Driven Active Selection [19.365009652356793]
エキスパート-トークン共鳴(ETR)は、専門家-トークン相互作用を再想像する理論的な双方向ルーティング機構である。
ETRは、ベースラインのMoE実装と比較して、エンドツーエンドのトレーニング効率が5.4%-46.6%向上している。
論文 参考訳(メタデータ) (2024-05-24T02:50:44Z) - RLEMMO: Evolutionary Multimodal Optimization Assisted By Deep Reinforcement Learning [8.389454219309837]
マルチモーダル最適化問題 (MMOP) は, 限られた関数評価において困難となる最適解の探索を必要とする。
本稿では,メタブラックボックス最適化フレームワークであるRLEMMOを提案する。
品質と多様性の両方を促進する新しい報酬メカニズムにより、RLEMMOはポリシー勾配アルゴリズムを用いて効果的に訓練できる。
論文 参考訳(メタデータ) (2024-04-12T05:02:49Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。