論文の概要: DeepCO: Offline Combinatorial Optimization Framework Utilizing Deep
Learning
- arxiv url: http://arxiv.org/abs/2007.09881v1
- Date: Mon, 20 Jul 2020 04:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 13:14:34.500056
- Title: DeepCO: Offline Combinatorial Optimization Framework Utilizing Deep
Learning
- Title(参考訳): deepco:ディープラーニングを活用したオフラインコンビネート最適化フレームワーク
- Authors: Wenpeng Wei, Toshiko Aizono
- Abstract要約: ディープラーニングを利用したオフライン最適化フレームワークDeepCOを提案する。
また,倉庫運用順序最適化問題をモデル化するために,TSP(Travelling Salesman Problem)のオフライン変動を設計する。
限られた履歴データのみで、新しい分布正規化最適化は、経路長を平均5.7%削減するオフライン実験において、既存のベースライン法より優れている。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Combinatorial optimization serves as an essential part in many modern
industrial applications. A great number of the problems are offline setting due
to safety and/or cost issues. While simulation-based approaches appear
difficult to realise for complicated systems, in this research, we propose
DeepCO, an offline combinatorial optimization framework utilizing deep
learning. We also design an offline variation of Travelling Salesman Problem
(TSP) to model warehouse operation sequence optimization problem for
evaluation. With only limited historical data, novel proposed distribution
regularized optimization method outperforms existing baseline method in offline
TSP experiment reducing route length by 5.7% averagely and shows great
potential in real world problems.
- Abstract(参考訳): 組合せ最適化は、現代の多くの産業アプリケーションにおいて不可欠な部分である。
多くの問題は、安全性やコストの問題によるオフライン設定である。
シミュレーションに基づくアプローチは複雑なシステムでは実現が難しいが,本研究では,ディープラーニングを利用したオフライン組合せ最適化フレームワークであるDeepCOを提案する。
また,TSP(Travelling Salesman Problem)をオフラインで設計し,倉庫運用順序最適化問題をモデル化した。
分布正規化最適化法は,限られた履歴データのみで,オフラインTSP実験において,経路長を平均5.7%削減し,実世界の問題に大きな可能性を示す。
関連論文リスト
- Offline reinforcement learning for job-shop scheduling problems [1.3927943269211593]
本稿では,複雑な制約を伴う最適化問題に対して,新しいオフラインRL法を提案する。
我々のアプローチは、エッジ属性のアクションを符号化し、専門家ソリューションの模倣と期待される報酬のバランスをとる。
本手法がジョブショップスケジューリングおよびフレキシブルジョブショップスケジューリングベンチマークに与える影響を実証する。
論文 参考訳(メタデータ) (2024-10-21T07:33:42Z) - Rethinking Optimal Transport in Offline Reinforcement Learning [64.56896902186126]
オフラインの強化学習では、データはさまざまな専門家によって提供され、一部は準最適である。
効率的なポリシを抽出するには、データセットから最高の振る舞いを強調する必要がある。
本稿では,各状態に対する最善の専門家行動の公平な分布に状態をマッピングするポリシーを見つけることを目的としたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T22:36:43Z) - Offline Model-Based Optimization via Policy-Guided Gradient Search [30.87992788876113]
オフライン強化学習問題として再構成することで、オフライン最適化のための新しい学習-探索-勾配の視点を導入する。
提案手法は,オフラインデータから生成されたサロゲートモデルに対して,適切なポリシーを明示的に学習する。
論文 参考訳(メタデータ) (2024-05-08T18:27:37Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - PASTA: Pessimistic Assortment Optimization [25.51792135903357]
オフラインデータ駆動環境でのアソシエーション最適化のクラスについて検討する。
本稿では,悲観主義の原理に基づくPASTA(Pessimistic Assortment opTimizAtion)と呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-08T01:11:51Z) - Efficient Online Reinforcement Learning with Offline Data [78.92501185886569]
オンライン学習時にオフラインデータを活用するために、既存のオフライン手法を単純に適用できることを示します。
私たちはこれらの設計選択を広範囲に改善し、パフォーマンスに最も影響を与える重要な要因を示します。
これらのシンプルなレコメンデーションの正しい適用によって、既存のアプローチよりも$mathbf2.5times$の改善が得られます。
論文 参考訳(メタデータ) (2023-02-06T17:30:22Z) - DIMES: A Differentiable Meta Solver for Combinatorial Optimization
Problems [41.57773395100222]
深部強化学習(DRL)モデルはNP-hard Combinatorial Optimization問題を解決する上で有望な結果を示している。
本稿では,DIMESという新しいアプローチを提案することによって,大規模最適化におけるスケーラビリティの課題に対処する。
コストのかかる自己回帰的復号法や離散解の反復的洗練に苦しむ従来のDRL法とは異なり、DIMESは候補解の基底分布をパラメータ化するためのコンパクトな連続空間を導入する。
DIMESは、トラベリングセールスマン問題や最大独立セット問題のための大規模なベンチマークデータセットにおいて、最近のDRLベースの手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-08T23:24:37Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Learning to Optimize Under Constraints with Unsupervised Deep Neural
Networks [0.0]
機械学習(ML)手法を提案し,汎用的制約付き連続最適化問題の解法を学習する。
本稿では,制約付き最適化問題をリアルタイムに解くための教師なしディープラーニング(DL)ソリューションを提案する。
論文 参考訳(メタデータ) (2021-01-04T02:58:37Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。