論文の概要: Confidence Threshold Neural Diving
- arxiv url: http://arxiv.org/abs/2202.07506v1
- Date: Tue, 15 Feb 2022 15:23:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 14:19:40.654638
- Title: Confidence Threshold Neural Diving
- Title(参考訳): 信頼度閾値ニューラルダイビング
- Authors: Taehyun Yoon
- Abstract要約: より柔軟に構築するニューラルダイビングに基づくポストホック法を提案する。
我々の仮説では、信頼しきい値法が部分解を生成するという実証的な証拠を提供する。
提案手法は,NeurIPS 2021 ML4COコンペティションにおいて2位となった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding a better feasible solution in a shorter time is an integral part of
solving Mixed Integer Programs. We present a post-hoc method based on Neural
Diving to build heuristics more flexibly. We hypothesize that variables with
higher confidence scores are more definite to be included in the optimal
solution. For our hypothesis, we provide empirical evidence that confidence
threshold technique produces partial solutions leading to final solutions with
better primal objective values. Our method won 2nd place in the primal task on
the NeurIPS 2021 ML4CO competition. Also, our method shows the best score among
other learning-based methods in the competition.
- Abstract(参考訳): より実現可能なソリューションを短時間で見つけることは、Mixed Integer Programsの解決に不可欠な部分です。
より柔軟にヒューリスティックスを構築するために,ニューラルダイビングに基づくポストホック法を提案する。
我々は、信頼度の高い変数が最適解に含まれることがより明確であると仮定する。
この仮説に対し,信頼しきい値法が,主観的目標値の高い最終解へと導く部分的解を生み出すという実証的証拠を与える。
提案手法は,NeurIPS 2021 ML4COコンペティションにおいて2位となった。
また,本手法は,コンペティションにおける他の学習手法の中で最も優れたスコアを示す。
関連論文リスト
- Convex Relaxations of ReLU Neural Networks Approximate Global Optima in
Polynomial Time [54.01594785269913]
本稿では, 重み劣化と凸緩和に則った2層ReLUネットワーク間の最適性ギャップについて述べる。
トレーニングデータがランダムである場合、元の問題と緩和の間の相対的な最適性ギャップは、サンプルの勾配によって境界付けられることを示す。
論文 参考訳(メタデータ) (2024-02-06T01:29:35Z) - Threshold-aware Learning to Generate Feasible Solutions for Mixed
Integer Programs [5.28005598366543]
ニューラルダイビング(ND)は、混合プログラム(MIP)における部分的な離散変数代入を生成する学習ベースのアプローチの1つである。
カバー範囲を最適化するためのポストホック法と学習に基づくアプローチを導入する。
実験結果から、ニューラルネットワークを学習して高品質な実現可能なソリューションを見つけるためのカバレッジを推定することで、NeurIPS ML4COデータセットの最先端のパフォーマンスが達成されることが示された。
論文 参考訳(メタデータ) (2023-08-01T07:03:16Z) - Learning To Dive In Branch And Bound [95.13209326119153]
グラフニューラルネットワークを用いて特定の潜水構造を学習するためのL2Diveを提案する。
我々は、変数の割り当てを予測するために生成モデルを訓練し、線形プログラムの双対性を利用して潜水決定を行う。
論文 参考訳(メタデータ) (2023-01-24T12:01:45Z) - Deep Learning for Mean Field Games with non-separable Hamiltonians [0.0]
本稿では,高次元平均場ゲーム(MFG)の解法を提案する。
2つのニューラルネットワークを用いて、MFGシステムの未知の解とフォワードバック条件を近似する。
提案手法は,少数のイテレーションでも効率的であり,最大300次元の処理を単一層で行うことができる。
論文 参考訳(メタデータ) (2023-01-07T15:39:48Z) - Towards Semi-Supervised Deep Facial Expression Recognition with An
Adaptive Confidence Margin [92.76372026435858]
Ada-CM(Adaptive Confidence Margin)を学習し、ラベルのないすべてのデータを半教師付き深層表情認識に活用する。
すべてのラベルなしサンプルは、信頼スコアと適応的に学習された信頼マージンを比較して、2つのサブセットに分割される。
提案手法は最先端の性能,特に半教師付きベースラインを超越した性能を実現する。
論文 参考訳(メタデータ) (2022-03-23T11:43:29Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - Learning Primal Heuristics for Mixed Integer Programs [5.766851255770718]
本研究は,機械学習を用いて効果的な霊長類を自動学習できるかどうかを考察する。
本稿では,最適化問題をグラフとして表現するための新しい手法を提案する。
可変解の予測はB&B法の新たな構成であるProbabilistic Branching with guided Depth-first Searchによって行われる。
論文 参考訳(メタデータ) (2021-07-02T06:46:23Z) - Contrastive Losses and Solution Caching for Predict-and-Optimize [19.31153168397003]
ノイズコントラスト法を用いて、サロゲート損失関数の族を動機付ける。
すべての予測と最適化アプローチのボトルネックに対処する。
非常に遅い成長率でさえ、最先端の手法の質に合わせるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-11-10T19:09:12Z) - CoinDICE: Off-Policy Confidence Interval Estimation [107.86876722777535]
強化学習における高信頼行動非依存のオフ政治評価について検討する。
様々なベンチマークにおいて、信頼区間推定が既存の手法よりも厳密で精度が高いことが示されている。
論文 参考訳(メタデータ) (2020-10-22T12:39:11Z) - Bloom Origami Assays: Practical Group Testing [90.2899558237778]
グループテストは、いくつかの魅力的なソリューションでよく研究されている問題である。
近年の生物学的研究は、従来の方法と相容れない新型コロナウイルスの実践的な制約を課している。
我々は,Bloomフィルタと信条伝搬を組み合わせた新しい手法を開発し,n(100以上)の大きい値に拡張し,良好な経験的結果を得る。
論文 参考訳(メタデータ) (2020-07-21T19:31:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。