論文の概要: Instance-wise algorithm configuration with graph neural networks
- arxiv url: http://arxiv.org/abs/2202.04910v1
- Date: Thu, 10 Feb 2022 09:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-12 02:52:39.410390
- Title: Instance-wise algorithm configuration with graph neural networks
- Title(参考訳): グラフニューラルネットワークを用いたインスタンスワイズアルゴリズムの構成
- Authors: Romeo Valentin, Claudio Ferrari, J\'er\'emy Scheurer, Andisheh
Amrollahi, Chris Wendler, Max B. Paulus
- Abstract要約: 本稿では,ML4CO(Machine Learning for Combinatorial Optimization)のNeurIPS 2021コンペティションの構成タスクについて紹介する。
構成課題は、オープンソースの解決器SCIPの優れた構成を予測し、混合整数線形プログラム(MILP)を効率的に解くことである。
世界のリーダーボードで15人中3位にランクインし、学生リーダーボードで優勝しました。
- 参考スコア(独自算出の注目度): 10.561470037080175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present our submission for the configuration task of the Machine Learning
for Combinatorial Optimization (ML4CO) NeurIPS 2021 competition. The
configuration task is to predict a good configuration of the open-source solver
SCIP to solve a mixed integer linear program (MILP) efficiently. We pose this
task as a supervised learning problem: First, we compile a large dataset of the
solver performance for various configurations and all provided MILP instances.
Second, we use this data to train a graph neural network that learns to predict
a good configuration for a specific instance. The submission was tested on the
three problem benchmarks of the competition and improved solver performance
over the default by 12% and 35% and 8% across the hidden test instances. We
ranked 3rd out of 15 on the global leaderboard and won the student leaderboard.
We make our code publicly available at
\url{https://github.com/RomeoV/ml4co-competition} .
- Abstract(参考訳): 本稿では,ML4CO(Machine Learning for Combinatorial Optimization)のNeurIPS 2021コンペティションの構成タスクについて紹介する。
構成課題は、オープンソースの解決器SCIPの優れた構成を予測し、混合整数線形プログラム(MILP)を効率的に解くことである。
まず、様々な構成や提供されたMILPインスタンスに対して、ソルバ性能の大規模なデータセットをコンパイルする。
次に、このデータを使用して、特定のインスタンスに適した構成を予測するために学習するグラフニューラルネットワークをトレーニングします。
提案は、競合の3つの問題ベンチマークでテストされ、デフォルトよりも12%、隠れテストインスタンスに対して35%、8%改善された。
私たちは世界リーダーボードで15位にランクインし、学生リーダーボードで優勝しました。
コードは \url{https://github.com/romeov/ml4co-competition} で公開しています。
関連論文リスト
- Scaling LLM Inference with Optimized Sample Compute Allocation [56.524278187351925]
我々は、異なる推論構成の最適な混合を見つけるアルゴリズムであるOSCAを提案する。
実験の結果,学習した混合アロケーションでは,最高の単一構成よりも精度がよいことがわかった。
OSCAはシングルターンタスク以外のエージェント処理にも有効であることが示されており、デフォルト設定よりも3倍少ない計算でSWE-Benchの精度が向上している。
論文 参考訳(メタデータ) (2024-10-29T19:17:55Z) - DataComp: In search of the next generation of multimodal datasets [179.79323076587255]
DataCompは、Common Crawlの128億の画像テキストペアの候補プールを中心にしたデータセット実験用のテストベッドである。
我々のベンチマークは、複数の計算スケールから成っている。
特に、最良のベースラインであるDataComp-1Bは、ImageNetでCLIP ViT-L/14をスクラッチから79.2%のゼロショット精度でトレーニングすることが可能です。
論文 参考訳(メタデータ) (2023-04-27T11:37:18Z) - The Machine Learning for Combinatorial Optimization Competition (ML4CO):
Results and Insights [59.93939636422896]
ML4COは、キーコンポーネントを置き換えることで最先端の最適化問題を解決することを目的としている。
このコンペティションでは、最高の実現可能なソリューションを見つけること、最も厳密な最適性証明書を生成すること、適切なルーティング設定を提供すること、という3つの課題があった。
論文 参考訳(メタデータ) (2022-03-04T17:06:00Z) - ML4CO-KIDA: Knowledge Inheritance in Data Aggregation [6.2129687406221015]
二重境界の高速化を促進するために分岐決定を行うモデルを設計する。
我々の改善は、ベースライングラフニューラルネットワークス方式の欠点を克服しています。
私たちはこの2つのタスクで1ドル超えのプレースを勝ち取った。
論文 参考訳(メタデータ) (2022-01-25T14:03:57Z) - ML4CO: Is GCNN All You Need? Graph Convolutional Neural Networks Produce
Strong Baselines For Combinatorial Optimization Problems, If Tuned and
Trained Properly, on Appropriate Data [8.09193285529236]
本稿では,2021年のNeurIPS Machine Learning for Combinatorial Optimization (ML4CO)コンペでHuawei EI-OROASチームが学んだソリューションと教訓を要約する。
チームの応募は最終ランキングで2位となり、第1位に近かった。
簡単なグラフ畳み込みニューラルネットワーク(GCNN)は、トレーニングやチューニングを適切に行うと、最先端の結果が得られると論じる。
論文 参考訳(メタデータ) (2021-12-22T22:40:13Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Network Support for High-performance Distributed Machine Learning [17.919773898228716]
学習ノード(計算を行う)と情報ノード(データを提供する)の両方をキャプチャするシステムモデルを提案する。
次に,学習課題を完了させるために,学習ノードと情報ノードが協調して行うべき課題と,実行すべきイテレーション数を選択する問題を定式化する。
我々はDoubleClimbというアルゴリズムを考案し、1+1/|I|競合解を見つけることができる。
論文 参考訳(メタデータ) (2021-02-05T19:38:57Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。