論文の概要: Comparing Heuristics, Constraint Optimization, and Reinforcement
Learning for an Industrial 2D Packing Problem
- arxiv url: http://arxiv.org/abs/2110.14535v1
- Date: Wed, 27 Oct 2021 15:47:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 14:40:58.306115
- Title: Comparing Heuristics, Constraint Optimization, and Reinforcement
Learning for an Industrial 2D Packing Problem
- Title(参考訳): 産業用2次元パッキング問題に対するヒューリスティックス,制約最適化,強化学習の比較
- Authors: Stefan B\"ohm, Martin Neumayer, Oliver Kramer, Alexander Schiendorfer,
Alois Knoll
- Abstract要約: カットとパッケージングの問題は、ビジネスの収益に直接影響を与えるさまざまな業界で起きている。
機械学習は、このような問題を解決するためにますます使われています。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cutting and Packing problems are occurring in different industries with a
direct impact on the revenue of businesses. Generally, the goal in Cutting and
Packing is to assign a set of smaller objects to a set of larger objects. To
solve Cutting and Packing problems, practitioners can resort to heuristic and
exact methodologies. Lately, machine learning is increasingly used for solving
such problems. This paper considers a 2D packing problem from the furniture
industry, where a set of wooden workpieces must be assigned to different
modules of a trolley in the most space-saving way. We present an experimental
setup to compare heuristics, constraint optimization, and deep reinforcement
learning for the given problem. The used methodologies and their results get
collated in terms of their solution quality and runtime. In the given use case
a greedy heuristic produces optimal results and outperforms the other
approaches in terms of runtime. Constraint optimization also produces optimal
results but requires more time to perform. The deep reinforcement learning
approach did not always produce optimal or even feasible solutions. While we
assume this could be remedied with more training, considering the good results
with the heuristic, deep reinforcement learning seems to be a bad fit for the
given use case.
- Abstract(参考訳): カットとパッケージングの問題は、ビジネスの収益に直接影響を与えるさまざまな業界で起きている。
一般的に、切断と包装の目標は、小さなオブジェクトのセットを大きなオブジェクトのセットに割り当てることである。
カットとパッケージの問題を解決するために、実践者はヒューリスティックで正確な方法論を利用することができる。
近年、機械学習はそのような問題を解決するためにますます使われている。
本稿では,家具産業における2次元パッキング問題について考察する。木製ワークの組を,最も省スペースな方法でトロリーの異なるモジュールに割り当てなければならない。
本稿では,与えられた問題に対するヒューリスティックス,制約最適化,深層強化学習の比較実験を行う。
使用する方法論とその結果は、ソリューションの品質と実行時間の観点から照合される。
与えられたユースケースでは、欲求的ヒューリスティックは最適な結果を生成し、ランタイムの観点から他のアプローチより優れている。
制約最適化は最適な結果を生み出すが、実行にはより多くの時間を要する。
深層強化学習アプローチは必ずしも最適あるいは実現可能な解決策を生み出しなかった。
これはより多くのトレーニングで改善できると仮定するが、ヒューリスティックな結果を考えると、深い強化学習は、与えられたユースケースに適さないように思われる。
関連論文リスト
- Learning to Optimize for Mixed-Integer Non-linear Programming [20.469394148261838]
混合整数非NLPプログラム(MINLP)はエネルギーシステムや輸送など様々な領域で発生するが、解決は困難である。
機械学習の最近の進歩は、最適化のための学習として知られる領域において、顕著な成功をもたらしている。
勾配を保ちながら整数出力を生成する2つの異なる補正層を提案する。
論文 参考訳(メタデータ) (2024-10-14T20:14:39Z) - Near-Optimal Solutions of Constrained Learning Problems [85.48853063302764]
機械学習システムでは、振る舞いを縮小する必要性がますます顕在化している。
これは、双対ロバスト性変数を満たすモデルの開発に向けた最近の進歩によって証明されている。
この結果から, 豊富なパラメトリゼーションは非次元的, 有限な学習問題を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2024-03-18T14:55:45Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - The Machine Learning for Combinatorial Optimization Competition (ML4CO):
Results and Insights [59.93939636422896]
ML4COは、キーコンポーネントを置き換えることで最先端の最適化問題を解決することを目的としている。
このコンペティションでは、最高の実現可能なソリューションを見つけること、最も厳密な最適性証明書を生成すること、適切なルーティング設定を提供すること、という3つの課題があった。
論文 参考訳(メタデータ) (2022-03-04T17:06:00Z) - How to effectively use machine learning models to predict the solutions
for optimization problems: lessons from loss function [0.0]
本稿では,高度な機械学習手法を用いた制約最適化問題に対する良質な解の予測を目的とする。
citeabbasi 2020predictingの仕事を拡張し、大規模最適化モデルのソリューションを予測するために機械学習モデルを使用する。
論文 参考訳(メタデータ) (2021-05-14T02:14:00Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - SeaPearl: A Constraint Programming Solver guided by Reinforcement
Learning [0.0]
本稿では,Juliaで実装された新しい制約プログラミング問題であるSeaPearlの概念実証について述べる。
seapearlは強化学習を使用して分岐決定を学ぶために機械学習ルーチンをサポートする。
産業用ソリューションとはまだ競合していないが、seapearlは柔軟でオープンソースなフレームワークを提供することを目指している。
論文 参考訳(メタデータ) (2021-02-18T07:34:38Z) - Combining Reinforcement Learning and Constraint Programming for
Combinatorial Optimization [5.669790037378094]
目標は、有限個の可能性の集合の中で最適解を見つけることである。
深部強化学習(DRL)はNP-ハード最適化問題を解くことを約束している。
制約プログラミング(CP)は最適化問題を解決する汎用ツールである。
本研究では,最適化問題の解法としてDRLとCPを用いた汎用ハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-06-02T13:54:27Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。