論文の概要: REMoH: A Reflective Evolution of Multi-objective Heuristics approach via Large Language Models
- arxiv url: http://arxiv.org/abs/2506.07759v1
- Date: Mon, 09 Jun 2025 13:38:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.975636
- Title: REMoH: A Reflective Evolution of Multi-objective Heuristics approach via Large Language Models
- Title(参考訳): REMoH:大規模言語モデルによる多目的ヒューリスティックスアプローチの反射的進化
- Authors: Diego Forniés-Tabuenca, Alejandro Uribe, Urtzi Otamendi, Arkaitz Artetxe, Juan Carlos Rivera, Oier Lopez de Lacalle,
- Abstract要約: 多目的最適化は、複雑な意思決定タスクにおいて基礎となる。
大規模言語モデル(LLM)の最近の進歩は、説明可能性、適応性、推論の強化を提供する。
本研究では,NSGA-II と LLM を融合した新たなフレームワークである REMoH (Reflectionive Evolution of Multi-Objective Heuristics) を提案する。
- 参考スコア(独自算出の注目度): 39.85828629779943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-objective optimization is fundamental in complex decision-making tasks. Traditional algorithms, while effective, often demand extensive problem-specific modeling and struggle to adapt to nonlinear structures. Recent advances in Large Language Models (LLMs) offer enhanced explainability, adaptability, and reasoning. This work proposes Reflective Evolution of Multi-objective Heuristics (REMoH), a novel framework integrating NSGA-II with LLM-based heuristic generation. A key innovation is a reflection mechanism that uses clustering and search-space reflection to guide the creation of diverse, high-quality heuristics, improving convergence and maintaining solution diversity. The approach is evaluated on the Flexible Job Shop Scheduling Problem (FJSSP) in-depth benchmarking against state-of-the-art methods using three instance datasets: Dauzere, Barnes, and Brandimarte. Results demonstrate that REMoH achieves competitive results compared to state-of-the-art approaches with reduced modeling effort and enhanced adaptability. These findings underscore the potential of LLMs to augment traditional optimization, offering greater flexibility, interpretability, and robustness in multi-objective scenarios.
- Abstract(参考訳): 多目的最適化は、複雑な意思決定タスクにおいて基礎となる。
従来のアルゴリズムは効果的であるが、しばしば広範な問題固有のモデリングを必要とし、非線形構造に適応するのに苦労する。
大規模言語モデル(LLM)の最近の進歩は、説明可能性、適応性、推論の強化を提供する。
本研究は,NSGA-IIとLLMに基づくヒューリスティック生成を統合した新しいフレームワークであるRe Reflective Evolution of Multi-Objective Heuristics (REMoH)を提案する。
重要なイノベーションは、クラスタリングと検索空間のリフレクションを使用して、多様な高品質なヒューリスティックの作成をガイドし、収束を改善し、ソリューションの多様性を維持するリフレクションメカニズムである。
このアプローチは、Dauzere、Barnes、Brandimarteの3つのインスタンスデータセットを使用して、最先端のメソッドに対する詳細なベンチマークを行う、フレキシブルジョブショップスケジューリング問題(FJSSP)に基づいて評価されている。
その結果、REMoHは、モデリングの労力を減らし適応性を向上した最先端の手法と比較して、競争力のある結果が得られることを示した。
これらの知見は,多目的シナリオにおける柔軟性,解釈可能性,堅牢性を提供することにより,従来の最適化を向上するLLMの可能性を強調している。
関連論文リスト
- Benchmarking MOEAs for solving continuous multi-objective RL problems [3.8936716676293917]
多目的強化学習(MORL)は、複数の、しばしば矛盾する報酬を同時に最適化する課題に対処する。
本稿では,複雑なMORL問題の解法における多目的進化アルゴリズムの適用性と限界について検討する。
論文 参考訳(メタデータ) (2025-05-19T20:54:20Z) - Generative Reliability-Based Design Optimization Using In-Context Learning Capabilities of Large Language Models [0.8356765961526956]
LLM(Large Language Models)は、コンテキスト内学習機能を示す。
本稿では,LLMの文脈内学習機能を活用した生成設計手法を提案する。
論文 参考訳(メタデータ) (2025-03-28T13:10:04Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.082897040940447]
大きな言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において素晴らしい能力を持っています。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は,従来の個人レベルのアプローチと比較して,効率を著しく向上するコスト効率の高い集団レベルの最適化戦略を開発する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Progressive Multimodal Reasoning via Active Retrieval [64.74746997923967]
多段階多モーダル推論タスクは、大規模言語モデル(MLLM)に重大な課題をもたらす
本稿では,MLLMの推論能力の向上を目的とした汎用フレームワークAR-MCTSを提案する。
我々は,AR-MCTSがサンプリングの多様性と精度を最適化し,信頼性の高いマルチモーダル推論を実現することを示す。
論文 参考訳(メタデータ) (2024-12-19T13:25:39Z) - Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Autonomous Multi-Objective Optimization Using Large Language Model [28.14607885386587]
マルチオブジェクト最適化問題(MOPs)は、現実世界のアプリケーションではユビキタスである。
我々は,MOPを解決するためのEA演算子を自律的に設計する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T10:35:16Z) - Context-aware Diversity Enhancement for Neural Multi-Objective Combinatorial Optimization [19.631213689157995]
マルチオブジェクト最適化(MOCO)問題は、様々な現実世界のアプリケーションで広く用いられている。
我々はCDEというコンテキスト対応の多様性向上アルゴリズムを提案する。
提案したCDEは,文脈情報を効果的かつ効率的に把握し,多様性の向上をもたらす。
論文 参考訳(メタデータ) (2024-05-14T13:42:19Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。