論文の概要: AI-Copilot for Business Optimisation: A Framework and A Case Study in
Production Scheduling
- arxiv url: http://arxiv.org/abs/2309.13218v3
- Date: Wed, 18 Oct 2023 23:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 19:08:13.776740
- Title: AI-Copilot for Business Optimisation: A Framework and A Case Study in
Production Scheduling
- Title(参考訳): ビジネス最適化のためのAI-Copilot:生産スケジューリングのフレームワークとケーススタディ
- Authors: Pivithuru Thejan Amarasinghe, Su Nguyen, Yuan Sun and Damminda
Alahakoon
- Abstract要約: ビジネス最適化問題定式化のためのAI-Copilotを提案する。
トークンの制限については、モジュール化を導入し、エンジニアリング技術を推進します。
問題定式化の精度と品質を評価するのに適した性能評価指標を設計する。
- 参考スコア(独自算出の注目度): 3.522755287096529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Business optimisation refers to the process of finding and implementing
efficient and cost-effective means of operation to bring a competitive
advantage for businesses. Synthesizing problem formulations is an integral part
of business optimisation, which relies on human expertise to construct problem
formulations using optimisation languages. Interestingly, with advancements in
Large Language Models (LLMs), the human expertise needed in problem formulation
can be minimized. However, developing an LLM for problem formulation is
challenging, due to training data, token limitations, and lack of appropriate
performance metrics. For the requirement of training data, recent attention has
been directed towards fine-tuning pre-trained LLMs for downstream tasks rather
than training an LLM from scratch for a specific task. In this paper, we adopt
an LLM fine-tuning approach and propose an AI-Copilot for business optimisation
problem formulation. For token limitations, we introduce modularization and
prompt engineering techniques to synthesize complex problem formulations as
modules that fit into the token limits of LLMs. Additionally, we design
performance evaluation metrics that are better suited for assessing the
accuracy and quality of problem formulations. The experiment results
demonstrate that with this approach we can synthesize complex and large problem
formulations for a typical business optimisation problem in production
scheduling.
- Abstract(参考訳): ビジネス最適化(business optimization)とは、ビジネスに競争上の優位性をもたらすために、効率的でコスト効率の良い運用方法を見つけ、実装するプロセスのことである。
問題定式化の合成は、最適化言語を用いて問題定式化を構築するための人間の専門知識に依存する、ビジネス最適化の不可欠な部分である。
興味深いことに、LLM(Large Language Models)の進歩により、問題定式化に必要な人間の専門知識は最小化できる。
しかし、データのトレーニング、トークンの制限、適切なパフォーマンス指標の欠如など、問題定式化のためのLLMの開発は困難である。
トレーニングデータの要求に対して,近年の注目は,特定のタスクのためにLLMをスクラッチからトレーニングするよりも,下流タスクのための微調整済みのLLMに向けられている。
本稿では, LLMファインチューニング手法を採用し, ビジネス最適化問題定式化のためのAI-Copilotを提案する。
トークン制限のために,LLMのトークン制限に適合するモジュールとして,複雑な問題定式化を合成するためのモジュール化とエンジニアリング手法を導入する。
さらに,問題定式化の正確性と品質を評価するのに適した性能評価指標を設計した。
実験の結果,本手法ではプロダクションスケジューリングにおけるビジネス最適化問題に対して,複雑かつ大規模問題定式化を合成できることが示される。
関連論文リスト
- Enhancing the General Agent Capabilities of Low-Parameter LLMs through Tuning and Multi-Branch Reasoning [56.82041895921434]
オープンソースの事前訓練された大規模言語モデル(LLM)は、強力な言語理解と生成能力を示す。
現実世界の複雑な問題に対処するエージェントとして使用される場合、ChatGPTやGPT-4のような大型の商用モデルに比べてパフォーマンスははるかに劣る。
論文 参考訳(メタデータ) (2024-03-29T03:48:12Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - How Multimodal Integration Boost the Performance of LLM for
Optimization: Case Study on Capacitated Vehicle Routing Problems [33.33996058215666]
大規模言語モデル(LLM)は、複雑な最適化課題に対処するための有能なツールとして自らを位置づけている。
テキストと視覚の両方のプロンプトを処理可能なマルチモーダルLLMを用いて最適化性能を向上させることを提案する。
論文 参考訳(メタデータ) (2024-03-04T06:24:21Z) - PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Policy Optimization with Linear Temporal Logic Constraints [37.27882290236194]
本稿では,線形時間論理制約を用いた政策最適化の問題点について考察する。
我々は,タスク満足度とコスト最適性の両方を保証するために,サンプル複雑性分析を楽しむモデルベースアプローチを開発した。
論文 参考訳(メタデータ) (2022-06-20T02:58:02Z) - Knowledge engineering mixed-integer linear programming: constraint
typology [2.4002205752931625]
混合整数線形プログラムMILPの制約型について検討する。
milpは、実生活のスケジューリング、ルーティング、計画、リソース割り当て、時間的最適化問題のモデリングと解決によく使われる数学的プログラミング手法である。
論文 参考訳(メタデータ) (2021-02-20T20:07:24Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - A Knowledge Representation Approach to Automated Mathematical Modelling [1.8907108368038215]
我々はMILPモデルオントロジーとMILP定式化の新しい制約型について提案する。
MILPは、リアルタイムスケジューリング、ルーティング、計画、リソース割り当て、タイムタブル最適化の問題をモデル化し、解くために一般的に用いられる数学的プログラミング手法である。
本研究の目的は,業務最適化問題の自然言語記述をMILP形式仕様にマッピングする,MILPの機械可読な知識表現を開発することである。
論文 参考訳(メタデータ) (2020-11-12T10:29:57Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。