論文の概要: Large Language Models in Operations Research: Methods, Applications, and Challenges
- arxiv url: http://arxiv.org/abs/2509.18180v3
- Date: Tue, 14 Oct 2025 02:36:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 12:06:24.217572
- Title: Large Language Models in Operations Research: Methods, Applications, and Challenges
- Title(参考訳): オペレーション研究における大規模言語モデル:方法,応用,課題
- Authors: Yang Wang, Kai Li,
- Abstract要約: オペレーションリサーチ(OR)は、輸送、サプライチェーン管理、生産スケジュールなど、複雑なシステム決定を支援する。
専門家主導のモデリングと手動パラメータチューニングに依存する従来のアプローチは、しばしば大規模、動的、マルチ制約の問題に悩まされる。
本稿では,大規模言語モデル(LLM)をORに適用し,既存の手法を3つの経路に分類する。
- 参考スコア(独自算出の注目度): 9.208082097215314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operations research (OR) is a core methodology that supports complex system decision-making, with broad applications in transportation, supply chain management, and production scheduling. However, traditional approaches that rely on expert-driven modeling and manual parameter tuning often struggle with large-scale, dynamic, and multi-constraint problems, limiting scalability and real-time applicability. Large language models (LLMs), with capabilities in semantic understanding, structured generation, and reasoning control, offer new opportunities to overcome these challenges. They can translate natural language problem descriptions into mathematical models or executable code, generate heuristics, evolve algorithms, and directly solve optimization tasks. This shifts the paradigm from human-driven processes to intelligent human-AI collaboration. This paper systematically reviews progress in applying LLMs to OR, categorizing existing methods into three pathways: automatic modeling, auxiliary optimization, and direct solving. It also examines evaluation benchmarks and domain-specific applications, and highlights key challenges, including unstable semantic-to-structure mapping, fragmented research, limited generalization and interpretability, insufficient evaluation systems, and barriers to industrial deployment. Finally, it outlines potential research directions. Overall, LLMs demonstrate strong potential to reshape the OR paradigm by enhancing interpretability, adaptability, and scalability, paving the way for next-generation intelligent optimization systems.
- Abstract(参考訳): オペレーションリサーチ(Operations Research, OR)は、輸送、サプライチェーン管理、生産スケジュールといった複雑なシステム決定を支援する中核的な方法論である。
しかし、専門家主導のモデリングと手動パラメータチューニングに依存する従来のアプローチは、スケーラビリティとリアルタイム適用性を制限した大規模、動的、マルチ制約の問題に悩まされることが多い。
大きな言語モデル(LLM)は意味理解、構造化生成、推論制御の能力を持ち、これらの課題を克服する新たな機会を提供する。
自然言語の問題を数学的モデルや実行可能なコードに変換し、ヒューリスティックを生成し、アルゴリズムを進化させ、最適化タスクを直接解決することができる。
これは、パラダイムを人間主導のプロセスからインテリジェントな人間とAIのコラボレーションへとシフトさせる。
本稿では,LLMをORに適用する過程を体系的にレビューし,既存の手法を3つの経路に分類する。
また、評価ベンチマークやドメイン固有のアプリケーションについても検討し、不安定なセマンティック・ツー・構造マッピング、断片化研究、限定的な一般化と解釈可能性、不十分な評価システム、産業展開への障壁など、重要な課題を強調している。
最後に、潜在的研究の方向性を概説する。
全体として、LLMは、解釈可能性、適応性、拡張性を高め、次世代のインテリジェント最適化システムへの道を開くことにより、ORパラダイムを再構築する強い可能性を示している。
関連論文リスト
- A Systematic Survey on Large Language Models for Evolutionary Optimization: From Modeling to Solving [26.501685261132124]
大規模言語モデル(LLM)は、最適化問題に対処するためにますます研究されている。
急速な進歩にもかかわらず、この分野は依然として統一的な合成と体系的な分類を欠いている。
この調査は、最近の開発を包括的にレビューし、構造化されたフレームワーク内でそれらを整理することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-09-10T04:05:54Z) - Teaching LLMs to Think Mathematically: A Critical Study of Decision-Making via Optimization [1.246870021158888]
本稿では,大規模言語モデル(LLM)の数学的プログラミングによる意思決定問題の定式化と解決能力について検討する。
まず、LLMがドメイン間の最適化問題をいかに理解し、構造化し、解決するかを評価するため、最近の文献の体系的レビューとメタ分析を行う。
計算機ネットワークにおける問題に対する最適化モデルの自動生成において、最先端のLLMの性能を評価するために設計されたターゲット実験により、系統的エビデンスを補完する。
論文 参考訳(メタデータ) (2025-08-25T14:52:56Z) - Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - Towards Efficient Multi-LLM Inference: Characterization and Analysis of LLM Routing and Hierarchical Techniques [14.892995952768352]
言語モデル(LM)は、テキスト生成、要約、質問応答といったタスクに優れています。
彼らの推論は計算コストが高く、ハードウェア、電力、帯域幅に制限のある設定でエネルギーを集中的に消費する。
近年のアプローチでは、クエリの複雑さに基づいて、動的に計算資源を割り当てる複数のLLMインテリジェントモデル選択戦略が導入されている。
論文 参考訳(メタデータ) (2025-06-06T23:13:08Z) - Self-Steering Language Models [113.96916935955842]
DisCIPL は "self-steering" 言語モデル (LM) の手法である。
DisCIPLは、Followerモデルの集団によって実行されるタスク固有の推論プログラムを生成する。
我々の研究は、高度に並列化されたモンテカルロ推論戦略の設計空間を開く。
論文 参考訳(メタデータ) (2025-04-09T17:54:22Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。