論文の概要: AI-Copilot for Business Optimisation: A Framework and A Case Study in
Production Scheduling
- arxiv url: http://arxiv.org/abs/2309.13218v2
- Date: Fri, 29 Sep 2023 04:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 17:17:47.623780
- Title: AI-Copilot for Business Optimisation: A Framework and A Case Study in
Production Scheduling
- Title(参考訳): ビジネス最適化のためのAI-Copilot:生産スケジューリングのフレームワークとケーススタディ
- Authors: Pivithuru Thejan Amarasinghe, Su Nguyen, Yuan Sun and Damminda
Alahakoon
- Abstract要約: 問題定式化のための学習済みLLMを微調整し,ビジネス最適化のためのAI-Copilotを提案する。
トークンの制限に対処するため,モジュール化を導入し,複雑な問題の定式化を行う工学的手法を推し進める。
実験により,我々のAI-Copilotは,生産スケジューリングにおける典型的なビジネス最適化問題に対して,複雑で大規模な問題定式化を合成できることが実証された。
- 参考スコア(独自算出の注目度): 3.522755287096529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Business optimisation is the process of finding and implementing efficient
and cost-effective means of operation to bring a competitive advantage for
businesses. Synthesizing problem formulations is an integral part of business
optimisation which is centred around human expertise, thus with a high
potential of becoming a bottleneck. With the recent advancements in Large
Language Models (LLMs), human expertise needed in problem formulation can
potentially be minimized using Artificial Intelligence (AI). However,
developing a LLM for problem formulation is challenging, due to training data
requirements, token limitations, and the lack of appropriate performance
metrics in LLMs. To minimize the requirement of large training data,
considerable attention has recently been directed towards fine-tuning
pre-trained LLMs for downstream tasks, rather than training a LLM from scratch
for a specific task. In this paper, we adopt this approach and propose an
AI-Copilot for business optimisation by fine-tuning a pre-trained LLM for
problem formulation. To address token limitations, we introduce modularization
and prompt engineering techniques to synthesize complex problem formulations as
modules that fit into the token limits of LLMs. In addition, we design
performance evaluation metrics that are more suitable for assessing the
accuracy and quality of problem formulations compared to existing evaluation
metrics. Experiment results demonstrate that our AI-Copilot can synthesize
complex and large problem formulations for a typical business optimisation
problem in production scheduling.
- Abstract(参考訳): ビジネス最適化は、ビジネスに競争上の優位性をもたらすために、効率的で費用対効果の高い運用方法を見つけ、実装するプロセスである。
問題定式化は、人間の専門知識を中心としたビジネス最適化の不可欠な部分であり、ボトルネックになる可能性が高い。
近年のLarge Language Models (LLMs) の進歩により、問題定式化に必要な人間の専門知識は、人工知能(AI)を用いて最小化できる可能性がある。
しかし、データ要件のトレーニングやトークン制限、LLMにおける適切なパフォーマンス指標の欠如など、問題定式化のためのLLMの開発は困難である。
大規模なトレーニングデータの要求を最小限に抑えるため、最近、特定のタスクのためにLLMをスクラッチからトレーニングするのではなく、下流タスクのための微調整済みのLLMにかなりの注意が向けられている。
本稿では,本手法を採用し,事前学習したllmを問題定式化のために微調整することにより,ビジネス最適化のためのai-copilotを提案する。
トークン制限に対処するために,LLMのトークン制限に適合するモジュールとして,複雑な問題定式化を合成するためのモジュール化とエンジニアリング手法を導入する。
さらに,既存の評価指標と比較して,問題定式化の精度と品質を評価するのに適した評価指標を設計する。
実験により,我々のAI-Copilotは,生産スケジューリングにおける典型的なビジネス最適化問題に対して,複雑で大規模な問題定式化を合成できることが示されている。
関連論文リスト
- Large Language Models for Combinatorial Optimization of Design Structure Matrix [4.513609458468522]
エンジニアリングアプリケーションの効率と性能を改善するためには、組合せ最適化(CO)が不可欠である。
実世界の工学的問題に関しては、純粋数学的推論に基づくアルゴリズムは限定的であり、最適化に必要な文脈ニュアンスを捉えることができない。
本研究では,工学的CO問題の解法におけるLarge Language Models (LLMs) の可能性について,その推論能力と文脈的知識を活用して検討する。
論文 参考訳(メタデータ) (2024-11-19T15:39:51Z) - Autoformulation of Mathematical Optimization Models Using LLMs [50.030647274271516]
商用問題解決者のための自然言語記述から最適化モデルを作成するための自動アプローチを開発する。
本稿では,(1)問題依存仮説空間の定義,(2)不確実性の下でこの空間を効率的に探索すること,(3)定式化の正しさを評価すること,の3つの課題を同定する。
論文 参考訳(メタデータ) (2024-11-03T20:41:38Z) - Non-myopic Generation of Language Models for Reasoning and Planning [45.75146679449453]
本稿では,モデル予測制御を利用した予測復号化手法を提案する。
我々の実験では、数学、コーディング、エージェントの幅広いタスクにおいて、大幅な改善が示されている。
論文 参考訳(メタデータ) (2024-10-22T17:13:38Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - How Multimodal Integration Boost the Performance of LLM for
Optimization: Case Study on Capacitated Vehicle Routing Problems [33.33996058215666]
大規模言語モデル(LLM)は、複雑な最適化課題に対処するための有能なツールとして自らを位置づけている。
テキストと視覚の両方のプロンプトを処理可能なマルチモーダルLLMを用いて最適化性能を向上させることを提案する。
論文 参考訳(メタデータ) (2024-03-04T06:24:21Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Knowledge engineering mixed-integer linear programming: constraint
typology [2.4002205752931625]
混合整数線形プログラムMILPの制約型について検討する。
milpは、実生活のスケジューリング、ルーティング、計画、リソース割り当て、時間的最適化問題のモデリングと解決によく使われる数学的プログラミング手法である。
論文 参考訳(メタデータ) (2021-02-20T20:07:24Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。