論文の概要: AI-Copilot for Business Optimisation: A Framework and A Case Study in
Production Scheduling
- arxiv url: http://arxiv.org/abs/2309.13218v1
- Date: Fri, 22 Sep 2023 23:45:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-09-26 21:35:36.613491
- Title: AI-Copilot for Business Optimisation: A Framework and A Case Study in
Production Scheduling
- Title(参考訳): ビジネス最適化のためのAI-Copilot:生産スケジューリングのフレームワークとケーススタディ
- Authors: Pivithuru Thejan Amarasinghe, Su Nguyen, Yuan Sun and Damminda
Alahakoon
- Abstract要約: 問題定式化のための学習済みLLMを微調整し,ビジネス最適化のためのAI-Copilotを提案する。
トークンの制限に対処するため,モジュール化を導入し,複雑な問題の定式化を行う工学的手法を推し進める。
実験により,我々のAI-Copilotは,生産スケジューリングにおける典型的なビジネス最適化問題に対して,複雑で大規模な問題定式化を合成できることが実証された。
- 参考スコア(独自算出の注目度): 3.522755287096529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Business optimisation is the process of finding and implementing efficient
and cost-effective means of operation to bring a competitive advantage for
businesses. Synthesizing problem formulations is an integral part of business
optimisation which is centred around human expertise, thus with a high
potential of becoming a bottleneck. With the recent advancements in Large
Language Models (LLMs), human expertise needed in problem formulation can
potentially be minimized using Artificial Intelligence (AI). However,
developing a LLM for problem formulation is challenging, due to training data
requirements, token limitations, and the lack of appropriate performance
metrics in LLMs. To minimize the requirement of large training data,
considerable attention has recently been directed towards fine-tuning
pre-trained LLMs for downstream tasks, rather than training a LLM from scratch
for a specific task. In this paper, we adopt this approach and propose an
AI-Copilot for business optimisation by fine-tuning a pre-trained LLM for
problem formulation. To address token limitations, we introduce modularization
and prompt engineering techniques to synthesize complex problem formulations as
modules that fit into the token limits of LLMs. In addition, we design
performance evaluation metrics that are more suitable for assessing the
accuracy and quality of problem formulations compared to existing evaluation
metrics. Experiment results demonstrate that our AI-Copilot can synthesize
complex and large problem formulations for a typical business optimisation
problem in production scheduling.
- Abstract(参考訳): ビジネス最適化は、ビジネスに競争上の優位性をもたらすために、効率的で費用対効果の高い運用方法を見つけ、実装するプロセスである。
問題定式化は、人間の専門知識を中心としたビジネス最適化の不可欠な部分であり、ボトルネックになる可能性が高い。
近年のLarge Language Models (LLMs) の進歩により、問題定式化に必要な人間の専門知識は、人工知能(AI)を用いて最小化できる可能性がある。
しかし、データ要件のトレーニングやトークン制限、LLMにおける適切なパフォーマンス指標の欠如など、問題定式化のためのLLMの開発は困難である。
大規模なトレーニングデータの要求を最小限に抑えるため、最近、特定のタスクのためにLLMをスクラッチからトレーニングするのではなく、下流タスクのための微調整済みのLLMにかなりの注意が向けられている。
本稿では,本手法を採用し,事前学習したllmを問題定式化のために微調整することにより,ビジネス最適化のためのai-copilotを提案する。
トークン制限に対処するために,LLMのトークン制限に適合するモジュールとして,複雑な問題定式化を合成するためのモジュール化とエンジニアリング手法を導入する。
さらに,既存の評価指標と比較して,問題定式化の精度と品質を評価するのに適した評価指標を設計する。
実験により,我々のAI-Copilotは,生産スケジューリングにおける典型的なビジネス最適化問題に対して,複雑で大規模な問題定式化を合成できることが示されている。
関連論文リスト
- Large Language Models for Combinatorial Optimization of Design Structure Matrix [4.513609458468522]
エンジニアリングアプリケーションの効率と性能を改善するためには、組合せ最適化(CO)が不可欠である。
実世界の工学的問題に関しては、純粋数学的推論に基づくアルゴリズムは限定的であり、最適化に必要な文脈ニュアンスを捉えることができない。
本研究では,工学的CO問題の解法におけるLarge Language Models (LLMs) の可能性について,その推論能力と文脈的知識を活用して検討する。
論文 参考訳(メタデータ) (2024-11-19T15:39:51Z) - Autoformulation of Mathematical Optimization Models Using LLMs [50.030647274271516]
商用問題解決者のための自然言語記述から最適化モデルを作成するための自動アプローチを開発する。
本稿では,(1)問題依存仮説空間の定義,(2)不確実性の下でこの空間を効率的に探索すること,(3)定式化の正しさを評価すること,の3つの課題を同定する。
論文 参考訳(メタデータ) (2024-11-03T20:41:38Z) - Non-myopic Generation of Language Models for Reasoning and Planning [45.75146679449453]
本稿では,モデル予測制御を利用した予測復号化手法を提案する。
我々の実験では、数学、コーディング、エージェントの幅広いタスクにおいて、大幅な改善が示されている。
論文 参考訳(メタデータ) (2024-10-22T17:13:38Z) - LLMOPT: Learning to Define and Solve General Optimization Problems from Scratch [16.174567164068037]
最適化の一般化を促進するため,LLMOPTと呼ばれる統合学習ベースのフレームワークを提案する。
LLMOPTは、様々な最適化問題タイプを定義するための普遍モデルとして導入された5要素の定式化を構築している。
LLMOPTは線形/非線形プログラミングや混合整数プログラミングといった様々な最適化問題をモデル化することができる。
論文 参考訳(メタデータ) (2024-10-17T04:37:37Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - How Multimodal Integration Boost the Performance of LLM for
Optimization: Case Study on Capacitated Vehicle Routing Problems [33.33996058215666]
大規模言語モデル(LLM)は、複雑な最適化課題に対処するための有能なツールとして自らを位置づけている。
テキストと視覚の両方のプロンプトを処理可能なマルチモーダルLLMを用いて最適化性能を向上させることを提案する。
論文 参考訳(メタデータ) (2024-03-04T06:24:21Z) - PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - A Framework for Inherently Interpretable Optimization Models [0.0]
何十年も前に難解だった大規模な問題の解決は、今や日常的な課題である。
1つの大きな障壁は、最適化ソフトウェアがブラックボックスとして認識できることである。
本稿では、本質的に理解しやすい説明規則を持つ解を導出する最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-26T10:32:00Z) - Knowledge engineering mixed-integer linear programming: constraint
typology [2.4002205752931625]
混合整数線形プログラムMILPの制約型について検討する。
milpは、実生活のスケジューリング、ルーティング、計画、リソース割り当て、時間的最適化問題のモデリングと解決によく使われる数学的プログラミング手法である。
論文 参考訳(メタデータ) (2021-02-20T20:07:24Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。