論文の概要: Yordle: An Efficient Imitation Learning for Branch and Bound
- arxiv url: http://arxiv.org/abs/2202.01896v1
- Date: Wed, 2 Feb 2022 14:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 15:13:08.906591
- Title: Yordle: An Efficient Imitation Learning for Branch and Bound
- Title(参考訳): Yordle: ブランチとバウンドのための効果的な模倣学習
- Authors: Qingyu Qu, Xijun Li and Yunfan Zhou
- Abstract要約: 本研究では,2021年のNeurIPS Machine Learning for Combinatorial Optimization (ML4CO)コンペティションにおいて,チームqqyが得たソリューションと洞察を紹介する。
我々のソリューションは、ブランチ・アンド・バウンド(B&B)のパフォーマンス改善のための、Yordleという名前の非常に効率的な模倣学習フレームワークです。
我々の実験では、Yordleは、決定モデルのトレーニングに要する時間とデータの量を大幅に削減しながら、競争によって採用されるベースラインアルゴリズムを大幅に上回っている。
- 参考スコア(独自算出の注目度): 1.6758573326215689
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Combinatorial optimization problems have aroused extensive research interests
due to its huge application potential. In practice, there are highly redundant
patterns and characteristics during solving the combinatorial optimization
problem, which can be captured by machine learning models. Thus, the 2021
NeurIPS Machine Learning for Combinatorial Optimization (ML4CO) competition is
proposed with the goal of improving state-of-the-art combinatorial optimization
solvers by replacing key heuristic components with machine learning techniques.
This work presents our solution and insights gained by team qqy in the dual
task of the competition. Our solution is a highly efficient imitation learning
framework for performance improvement of Branch and Bound (B&B), named Yordle.
It employs a hybrid sampling method and an efficient data selection method,
which not only accelerates the model training but also improves the decision
quality during branching variable selection. In our experiments, Yordle greatly
outperforms the baseline algorithm adopted by the competition while requiring
significantly less time and amounts of data to train the decision model.
Specifically, we use only 1/4 of the amount of data compared to that required
for the baseline algorithm, to achieve around 50% higher score than baseline
algorithm. The proposed framework Yordle won the championship of the student
leaderboard.
- Abstract(参考訳): 組合せ最適化の問題は、その膨大な応用可能性のために、幅広い研究の関心を喚起している。
実際には、組合せ最適化問題を解く際に、非常に冗長なパターンと特徴があり、機械学習モデルで捉えることができる。
そこで,2021年のNeurIPS Machine Learning for Combinatorial Optimization(ML4CO)コンペティションは,キーヒューリスティックなコンポーネントを機械学習技術に置き換えることで,最先端の組合せ最適化問題を改善することを目的としている。
この研究は、チームqqyがコンペティションの2つのタスクで得たソリューションと洞察を示します。
我々のソリューションは、ブランチ・アンド・バウンド(B&B)のパフォーマンス改善のための、非常に効率的な模倣学習フレームワークである。
モデル学習を加速するだけでなく、分岐変数選択時の判定品質を向上させるハイブリッドサンプリング法と効率的なデータ選択法を用いる。
我々の実験では、Yordleは、決定モデルをトレーニングする時間とデータの量を大幅に削減しながら、競争によって採用されるベースラインアルゴリズムを大幅に上回っている。
具体的には,ベースラインアルゴリズムと比較してデータ量が1/4に過ぎず,ベースラインアルゴリズムよりも約50%高いスコアが得られる。
提案されたフレームワークであるyordleは、学生リーダーボードのチャンピオンシップを獲得した。
関連論文リスト
- Exact Combinatorial Optimization with Temporo-Attentional Graph Neural
Networks [17.128882942475]
本稿では,機械学習アルゴリズムの時間的特徴と注意点の2つの重要な側面について検討する。
分岐とバウンド(B&B)アルゴリズムにおける変数選択のタスクでは、時間情報と二部グラフの注意を組み込むことで、解法の性能が向上すると主張している。
論文 参考訳(メタデータ) (2023-11-23T08:07:15Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Optimizer Amalgamation [124.33523126363728]
私たちは、Amalgamationという新しい問題の研究を動機付けています。"Teacher"アマルガメーションのプールを、より強力な問題固有のパフォーマンスを持つ単一の"学生"にどのように組み合わせるべきなのでしょうか?
まず、勾配降下による解析のプールをアマルガメートする3つの異なるメカニズムを定義する。
また, プロセスの分散を低減するため, 目標を摂動させることでプロセスの安定化を図る。
論文 参考訳(メタデータ) (2022-03-12T16:07:57Z) - The Machine Learning for Combinatorial Optimization Competition (ML4CO):
Results and Insights [59.93939636422896]
ML4COは、キーコンポーネントを置き換えることで最先端の最適化問題を解決することを目的としている。
このコンペティションでは、最高の実現可能なソリューションを見つけること、最も厳密な最適性証明書を生成すること、適切なルーティング設定を提供すること、という3つの課題があった。
論文 参考訳(メタデータ) (2022-03-04T17:06:00Z) - An Improved Reinforcement Learning Algorithm for Learning to Branch [12.27934038849211]
ブランチ・アンド・バウンド(B&B)は最適化の一般的な方法である。
本稿では,新しい強化学習に基づくB&Bアルゴリズムを提案する。
提案アルゴリズムの性能を3つの公開研究ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-01-17T04:50:11Z) - ML4CO: Is GCNN All You Need? Graph Convolutional Neural Networks Produce
Strong Baselines For Combinatorial Optimization Problems, If Tuned and
Trained Properly, on Appropriate Data [8.09193285529236]
本稿では,2021年のNeurIPS Machine Learning for Combinatorial Optimization (ML4CO)コンペでHuawei EI-OROASチームが学んだソリューションと教訓を要約する。
チームの応募は最終ランキングで2位となり、第1位に近かった。
簡単なグラフ畳み込みニューラルネットワーク(GCNN)は、トレーニングやチューニングを適切に行うと、最先端の結果が得られると論じる。
論文 参考訳(メタデータ) (2021-12-22T22:40:13Z) - A Novel Surrogate-assisted Evolutionary Algorithm Applied to
Partition-based Ensemble Learning [0.0]
高価な最適化問題を解決するための新しいサロゲート支援アルゴリズムを提案する。
我々は,適応値推定に用いるサロゲートモデルと,進化的遺伝子-進化的最適混合アルゴリズムの最先端p3様変種を統合する。
提案したアルゴリズムをアンサンブル学習問題で検証する。
論文 参考訳(メタデータ) (2021-04-16T11:51:18Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。