論文の概要: DICE: Diversity in Deep Ensembles via Conditional Redundancy Adversarial
Estimation
- arxiv url: http://arxiv.org/abs/2101.05544v1
- Date: Thu, 14 Jan 2021 10:53:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 06:20:36.329902
- Title: DICE: Diversity in Deep Ensembles via Conditional Redundancy Adversarial
Estimation
- Title(参考訳): DICE:条件付き冗長逆推定によるディープアンサンブルの多様性
- Authors: Alexandre Rame and Matthieu Cord
- Abstract要約: メンバー間の多様性のおかげで、ディープアンサンブルは単一のネットワークよりもパフォーマンスが良い。
最近のアプローチでは、多様性を高めるための予測を規則化していますが、個々のメンバーのパフォーマンスも大幅に減少します。
DICEと呼ばれる新しいトレーニング基準を導入し、特徴間の素早い相関を減らして多様性を高める。
- 参考スコア(独自算出の注目度): 109.11580756757611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep ensembles perform better than a single network thanks to the diversity
among their members. Recent approaches regularize predictions to increase
diversity; however, they also drastically decrease individual members'
performances. In this paper, we argue that learning strategies for deep
ensembles need to tackle the trade-off between ensemble diversity and
individual accuracies. Motivated by arguments from information theory and
leveraging recent advances in neural estimation of conditional mutual
information, we introduce a novel training criterion called DICE: it increases
diversity by reducing spurious correlations among features. The main idea is
that features extracted from pairs of members should only share information
useful for target class prediction without being conditionally redundant.
Therefore, besides the classification loss with information bottleneck, we
adversarially prevent features from being conditionally predictable from each
other. We manage to reduce simultaneous errors while protecting class
information. We obtain state-of-the-art accuracy results on CIFAR-10/100: for
example, an ensemble of 5 networks trained with DICE matches an ensemble of 7
networks trained independently. We further analyze the consequences on
calibration, uncertainty estimation, out-of-distribution detection and online
co-distillation.
- Abstract(参考訳): メンバー間の多様性のおかげで、ディープアンサンブルは単一のネットワークよりもパフォーマンスが良い。
最近のアプローチは、多様性を高めるために予測を定式化するが、同時に個々のメンバのパフォーマンスを劇的に低下させる。
本稿では,深層アンサンブルの学習戦略は,アンサンブルの多様性と個々のアキュラシーのトレードオフに対処する必要があると論じる。
情報理論の議論と、条件付き相互情報のニューラルな推定の最近の進歩を活用して、DICEと呼ばれる新しいトレーニング基準を導入し、特徴間の素早い相関を減らして多様性を高める。
主な考え方は、メンバーのペアから抽出された機能は、条件付き冗長さを伴わずに、ターゲットクラス予測に有用な情報を共有することである。
したがって,情報ボトルネックを伴う分類損失に加えて,特徴が互いに条件付きで予測可能であることも防止できる。
クラス情報を保護しながら、同時エラーを減らします。
例えば、DICEで訓練された5つのネットワークのアンサンブルは、独立して訓練された7つのネットワークのアンサンブルと一致する。
さらに, 校正, 不確実性推定, 分布外検出, オンライン共蒸留の結果を解析した。
関連論文リスト
- The Curse of Diversity in Ensemble-Based Exploration [7.209197316045156]
データ共有エージェントの多様なアンサンブルの訓練は、個々のアンサンブルメンバーのパフォーマンスを著しく損なう可能性がある。
私たちはこの現象を多様性の呪いと呼んでいる。
多様性の呪いに対処する表現学習の可能性を示す。
論文 参考訳(メタデータ) (2024-05-07T14:14:50Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Explicit Tradeoffs between Adversarial and Natural Distributional
Robustness [48.44639585732391]
実際、モデルは信頼性を確保するために両方のタイプの堅牢さを享受する必要があります。
本研究では, 対角線と自然分布の強靭性の間には, 明らかなトレードオフが存在することを示す。
論文 参考訳(メタデータ) (2022-09-15T19:58:01Z) - Robustness through Cognitive Dissociation Mitigation in Contrastive
Adversarial Training [2.538209532048867]
本稿では,新たなニューラルネットワークトレーニングフレームワークを提案する。
本稿では,データ拡張と対向的摂動の両面に一貫性のある特徴表現を学習することで,敵攻撃に対するモデルロバスト性を改善することを提案する。
我々は,CIFAR-10データセットを用いて,教師付きおよび自己教師付き対向学習法よりも頑健な精度とクリーンな精度を両立させる手法を検証する。
論文 参考訳(メタデータ) (2022-03-16T21:41:27Z) - Sparsity Winning Twice: Better Robust Generalization from More Efficient
Training [94.92954973680914]
スパース対位訓練の代替として, (i) スタティック・スパシティと (ii) ダイナミック・スパシティの2つを紹介した。
いずれの方法も、ロバストな一般化ギャップを大幅に縮小し、ロバストなオーバーフィッティングを緩和する。
我々のアプローチは既存の正規化器と組み合わせて、敵の訓練における新たな最先端の成果を確立することができる。
論文 参考訳(メタデータ) (2022-02-20T15:52:08Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Understanding the Logit Distributions of Adversarially-Trained Deep
Neural Networks [6.439477789066243]
敵の防御は、敵の攻撃による入力摂動に不変であるように、ディープニューラルネットワークを訓練する。
敵の攻撃を緩和するためには敵の訓練が成功しているが、敵の訓練を受けた(AT)モデルと標準モデルとの行動的差異はいまだに理解されていない。
対向性学習に不可欠な3つのロジット特性を同定する。
論文 参考訳(メタデータ) (2021-08-26T19:09:15Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。