論文の概要: Hierarchical Optimization via LLM-Guided Objective Evolution for Mobility-on-Demand Systems
- arxiv url: http://arxiv.org/abs/2510.10644v1
- Date: Sun, 12 Oct 2025 14:56:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.045917
- Title: Hierarchical Optimization via LLM-Guided Objective Evolution for Mobility-on-Demand Systems
- Title(参考訳): LLM-Guided Objective Evolution によるモビリティ・オン・デスマンドシステムの階層最適化
- Authors: Yi Zhang, Yushen Long, Yun Ni, Liping Huang, Xiaohong Wang, Jun Liu,
- Abstract要約: 動的階層システムにおいて,大規模言語モデル(LLM)と数学的最適化を統合した新しいフレームワークを提案する。
このフレームワーク内では、LLMはメタ最適化として機能し、制約執行とリアルタイム決定実行に責任を負う低レベルのセマンティクスを生成する。
ニューヨークとシカゴの両方のタクシーデータに基づく実験は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 9.979671028876464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online ride-hailing platforms aim to deliver efficient mobility-on-demand services, often facing challenges in balancing dynamic and spatially heterogeneous supply and demand. Existing methods typically fall into two categories: reinforcement learning (RL) approaches, which suffer from data inefficiency, oversimplified modeling of real-world dynamics, and difficulty enforcing operational constraints; or decomposed online optimization methods, which rely on manually designed high-level objectives that lack awareness of low-level routing dynamics. To address this issue, we propose a novel hybrid framework that integrates large language model (LLM) with mathematical optimization in a dynamic hierarchical system: (1) it is training-free, removing the need for large-scale interaction data as in RL, and (2) it leverages LLM to bridge cognitive limitations caused by problem decomposition by adaptively generating high-level objectives. Within this framework, LLM serves as a meta-optimizer, producing semantic heuristics that guide a low-level optimizer responsible for constraint enforcement and real-time decision execution. These heuristics are refined through a closed-loop evolutionary process, driven by harmony search, which iteratively adapts the LLM prompts based on feasibility and performance feedback from the optimization layer. Extensive experiments based on scenarios derived from both the New York and Chicago taxi datasets demonstrate the effectiveness of our approach, achieving an average improvement of 16% compared to state-of-the-art baselines.
- Abstract(参考訳): オンライン配車プラットフォームは、効率的なモビリティ・オン・デマンドサービスの提供を目指している。
既存の手法は、データ非効率に苦しむ強化学習(RL)アプローチ、実世界のダイナミクスの過度に単純化されたモデリング、運用上の制約の実施の難しさ、あるいは低レベルのルーティングダイナミクスの認識を欠いた手作業で設計された高レベルな目標に依存するオンライン最適化手法の2つのカテゴリに分類される。
この問題に対処するために,大規模言語モデル(LLM)と動的階層システムの数学的最適化を統合した新しいハイブリッドフレームワークを提案する。(1)訓練不要で,RLのような大規模インタラクションデータの必要性を排除し,(2)高レベルな目的を適応的に生成することで,問題分解による認知的制約を補うためにLLMを利用する。
このフレームワーク内では、LLMはメタ最適化として機能し、制約執行とリアルタイム決定実行の責任を負う低レベルのオプティマイザを導くセマンティックヒューリスティックを生成する。
これらのヒューリスティックは、最適化層から実現可能性と性能フィードバックに基づいてLCMプロンプトを反復的に適応させるハーモニー探索によって駆動される閉ループ進化過程によって洗練される。
ニューヨークとシカゴの両方のタクシーデータセットから得られたシナリオに基づく大規模な実験は、我々のアプローチの有効性を示し、最先端のベースラインと比較して平均16%の改善を達成した。
関連論文リスト
- TCPO: Thought-Centric Preference Optimization for Effective Embodied Decision-making [75.29820290660065]
本稿では,効果的な具体的意思決定のための思考中心推論最適化(TCPO)を提案する。
モデルの中間的推論プロセスの整合性を強調し、モデル劣化の問題を緩和する。
ALFWorld環境での実験では、平均成功率は26.67%であり、RL4VLMよりも6%向上している。
論文 参考訳(メタデータ) (2025-09-10T11:16:21Z) - A Systematic Survey on Large Language Models for Evolutionary Optimization: From Modeling to Solving [26.501685261132124]
大規模言語モデル(LLM)は、最適化問題に対処するためにますます研究されている。
急速な進歩にもかかわらず、この分野は依然として統一的な合成と体系的な分類を欠いている。
この調査は、最近の開発を包括的にレビューし、構造化されたフレームワーク内でそれらを整理することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-09-10T04:05:54Z) - Adaptive Resource Allocation Optimization Using Large Language Models in Dynamic Wireless Environments [25.866960634041092]
現在のソリューションはドメイン固有のアーキテクチャや技術に依存しており、制約付き最適化のための一般的なDLアプローチは未開発のままである。
本稿では,制約を順守しながら複雑な資源配分問題に対処するために,資源割当(LLM-RAO)のための大規模言語モデルを提案する。
LLM-RAO は従来の DL 法と比較して最大40% の性能向上を実現し,分析手法よりも80$% 向上した。
論文 参考訳(メタデータ) (2025-02-04T12:56:59Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.431866560904753]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。