論文の概要: Deep Combinatorial Aggregation
- arxiv url: http://arxiv.org/abs/2210.06436v1
- Date: Wed, 12 Oct 2022 17:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 15:32:21.347056
- Title: Deep Combinatorial Aggregation
- Title(参考訳): ディープコンビネーションアグリゲーション
- Authors: Yuesong Shen, Daniel Cremers
- Abstract要約: ディープアンサンブル(Deep ensemble)は、不確実性を考慮した学習タスクの最先端結果を実現する、シンプルで効果的な方法である。
本研究では,ディープアグリゲーション(DCA)と呼ばれるディープアンサンブルの一般化について検討する。
DCAはネットワークコンポーネントの複数のインスタンスを生成し、それらの組み合わせを集約して、多様化したモデルの提案と予測を生成する。
- 参考スコア(独自算出の注目度): 58.78692706974121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are known to produce poor uncertainty estimations, and a
variety of approaches have been proposed to remedy this issue. This includes
deep ensemble, a simple and effective method that achieves state-of-the-art
results for uncertainty-aware learning tasks. In this work, we explore a
combinatorial generalization of deep ensemble called deep combinatorial
aggregation (DCA). DCA creates multiple instances of network components and
aggregates their combinations to produce diversified model proposals and
predictions. DCA components can be defined at different levels of granularity.
And we discovered that coarse-grain DCAs can outperform deep ensemble for
uncertainty-aware learning both in terms of predictive performance and
uncertainty estimation. For fine-grain DCAs, we discover that an average
parameterization approach named deep combinatorial weight averaging (DCWA) can
improve the baseline training. It is on par with stochastic weight averaging
(SWA) but does not require any custom training schedule or adaptation of
BatchNorm layers. Furthermore, we propose a consistency enforcing loss that
helps the training of DCWA and modelwise DCA. We experiment on in-domain,
distributional shift, and out-of-distribution image classification tasks, and
empirically confirm the effectiveness of DCWA and DCA approaches.
- Abstract(参考訳): ニューラルネットワークは不確実性の推定が不十分であることが知られており、この問題を改善するための様々なアプローチが提案されている。
これは、不確実性を認識した学習タスクの最先端結果を達成する、シンプルで効果的な方法である。
本研究では,ディープコンビネーションアグリゲーション(dca)と呼ばれる深層アンサンブルの組合せ一般化について検討する。
DCAはネットワークコンポーネントの複数のインスタンスを生成し、それらの組み合わせを集約して、多様化したモデルの提案と予測を生成する。
DCAコンポーネントは、異なるレベルの粒度で定義することができる。
また,粗粒dcasは,予測性能と不確実性推定の両面で,不確実性認識学習の深層アンサンブルを上回ることがわかった。
細粒度DCAでは,DCWA(Deep combinatorial weight averaging)と呼ばれる平均パラメータ化手法がベースライントレーニングを改善することが判明した。
確率的重量平均法(swa)と同等であるが、個別の訓練スケジュールやバッチノルム層の適応を必要としない。
さらに,DCWA と DCA の訓練を支援する整合性を持たせることを提案する。
ドメイン内,分布シフト,分布外画像分類タスクを実験し,dcwa法とdca法の有効性を実証的に確認した。
関連論文リスト
- Finite-Time Convergence and Sample Complexity of Actor-Critic Multi-Objective Reinforcement Learning [20.491176017183044]
本稿では多目的強化学習(MORL)問題に取り組む。
MOACと呼ばれる革新的なアクター批判アルゴリズムを導入し、競合する報酬信号間のトレードオフを反復的に行うことでポリシーを見出す。
論文 参考訳(メタデータ) (2024-05-05T23:52:57Z) - Beyond Deep Ensembles: A Large-Scale Evaluation of Bayesian Deep
Learning under Distribution Shift [19.945634052291542]
我々は、WILDSコレクションから現実のデータセットに対する最新のBDLアルゴリズムを評価し、難解な分類と回帰タスクを含む。
我々は、大規模な、畳み込み、トランスフォーマーベースのニューラルネットワークアーキテクチャにおいて、アルゴリズムを比較した。
そこで本研究では,BDLを用いた大規模事前学習モデルのシステム評価を行った。
論文 参考訳(メタデータ) (2023-06-21T14:36:03Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Robust Learning via Ensemble Density Propagation in Deep Neural Networks [6.0122901245834015]
本稿では,ディープニューラルネットワーク(DNN)の層を通した密度伝搬の問題を定式化し,それをエンサンブル密度伝搬法を用いて解く。
MNISTとCIFAR-10データセットを用いた実験は、ランダムノイズや敵攻撃に対するトレーニングモデルの堅牢性を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2021-11-10T21:26:08Z) - Structured DropConnect for Uncertainty Inference in Image Classification [19.22497677849603]
本稿では,ディープニューラルネットワークの出力をディリクレ分布によってモデル化する構造化DropConnect (SDC) フレームワークを提案する。
提案したSDCは、特定の一般化能力と研究の展望を持つ異なるネットワーク構造に適応している。
論文 参考訳(メタデータ) (2021-06-16T08:31:14Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。