論文の概要: Contextual Dropout: An Efficient Sample-Dependent Dropout Module
- arxiv url: http://arxiv.org/abs/2103.04181v1
- Date: Sat, 6 Mar 2021 19:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 20:13:21.137617
- Title: Contextual Dropout: An Efficient Sample-Dependent Dropout Module
- Title(参考訳): context dropout: 効率的なサンプル依存ドロップアウトモジュール
- Authors: Xinjie Fan, Shujian Zhang, Korawat Tanwisuth, Xiaoning Qian, Mingyuan
Zhou
- Abstract要約: ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
- 参考スコア(独自算出の注目度): 60.63525456640462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dropout has been demonstrated as a simple and effective module to not only
regularize the training process of deep neural networks, but also provide the
uncertainty estimation for prediction. However, the quality of uncertainty
estimation is highly dependent on the dropout probabilities. Most current
models use the same dropout distributions across all data samples due to its
simplicity. Despite the potential gains in the flexibility of modeling
uncertainty, sample-dependent dropout, on the other hand, is less explored as
it often encounters scalability issues or involves non-trivial model changes.
In this paper, we propose contextual dropout with an efficient structural
design as a simple and scalable sample-dependent dropout module, which can be
applied to a wide range of models at the expense of only slightly increased
memory and computational cost. We learn the dropout probabilities with a
variational objective, compatible with both Bernoulli dropout and Gaussian
dropout. We apply the contextual dropout module to various models with
applications to image classification and visual question answering and
demonstrate the scalability of the method with large-scale datasets, such as
ImageNet and VQA 2.0. Our experimental results show that the proposed method
outperforms baseline methods in terms of both accuracy and quality of
uncertainty estimation.
- Abstract(参考訳): ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するだけでなく、予測の不確実性を予測するためのシンプルで効果的なモジュールとして実証されています。
しかし, 不確実性推定の質はドロップアウト確率に大きく依存する。
現在のモデルのほとんどは、そのシンプルさのため、すべてのデータサンプルに同じドロップアウト分布を使用している。
モデリングの不確実性の柔軟性の潜在的な向上にもかかわらず、サンプル依存のドロップアウトは、しばしばスケーラビリティの問題に直面したり、非自明なモデル変更を伴うため、あまり検討されていない。
本稿では,メモリと計算コストをわずかに増大させることなく,多種多様なモデルに適用可能な,シンプルでスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
我々は,BernoulliとGaussianのいずれのドロップアウトとも互換性のある,変動目的のドロップアウト確率を学習する。
画像分類や視覚的質問応答に応用した各種モデルにコンテキストドロップアウトモジュールを適用し,ImageNetやVQA 2.0のような大規模データセットを用いた手法のスケーラビリティを実証する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
関連論文リスト
- Evidence Networks: simple losses for fast, amortized, neural Bayesian
model comparison [0.0]
Evidence Networksは、最先端のメソッドがフェールした場合にベイズモデルの比較を可能にする。
リークパリティオード電力変換を導入し、新しいl-POP-Exponential'損失関数を導出する。
Evidence Networks はパラメータ空間の次元性に明示的に依存しており、後続確率密度関数の複雑さと軽度にスケール可能であることを示す。
論文 参考訳(メタデータ) (2023-05-18T18:14:53Z) - Decision-based iterative fragile watermarking for model integrity
verification [33.42076236847454]
ファンデーションモデルは一般的に、彼らのサービスに対する高い需要を満たすために、クラウドサーバー上でホストされる。
これは、アタッカーがクラウドにアップロードしたり、ローカルシステムから転送した後で修正できるため、セキュリティ上のリスクにさらされる。
本稿では,通常のトレーニングサンプルをモデル変更に敏感な脆弱なサンプルに変換する,反復的意思決定に基づく脆弱な透かしアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-13T10:36:11Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Learning Multivariate CDFs and Copulas using Tensor Factorization [39.24470798045442]
データの多変量分布を学習することは、統計学と機械学習における中核的な課題である。
本研究では,多変量累積分布関数(CDF)を学習し,混合確率変数を扱えるようにすることを目的とする。
混合確率変数の合同CDFの任意のグリッドサンプリング版は、単純ベイズモデルとして普遍表現を許容することを示す。
提案モデルの性能を,回帰,サンプリング,データ計算を含むいくつかの合成および実データおよびアプリケーションで実証する。
論文 参考訳(メタデータ) (2022-10-13T16:18:46Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Know Where To Drop Your Weights: Towards Faster Uncertainty Estimation [7.605814048051737]
低レイテンシアプリケーションで使用されるモデルの不確かさを推定することは、不確実性推定技術が計算的に要求される性質のためである。
本稿では、ニューラルネットワークのサブセットを用いてMCDCの不確実性をモデル化するSelect-DCを提案する。
我々は,不確実性をモデル化するためにGFLOPSをモンテカルロDropConnectと比較して大幅に削減し,性能の限界トレードオフを示した。
論文 参考訳(メタデータ) (2020-10-27T02:56:27Z) - Advanced Dropout: A Model-free Methodology for Bayesian Dropout
Optimization [62.8384110757689]
ディープニューラルネットワーク(DNN)の現実的応用において、ユビキタスなオーバーフィッティングが存在する
先進的なドロップアウト手法は、パラメトリック先行でモデルフリーで容易に実装された分布を適用し、ドロップアウト率を適応的に調整する。
7つのコンピュータビジョンデータセットにおける9つのドロップアウト手法に対する高度なドロップアウトの有効性を評価する。
論文 参考訳(メタデータ) (2020-10-11T13:19:58Z) - Dropout Strikes Back: Improved Uncertainty Estimation via Diversity
Sampling [3.077929914199468]
ニューラルネットワークにおけるドロップアウト層に対するサンプリング分布の変更により,不確実性評価の品質が向上することを示す。
主要なアイデアは、ニューロン間のデータ駆動相関を計算し、最大多様なニューロンを含むサンプルを生成する、という2つの主要なステップで構成されています。
論文 参考訳(メタデータ) (2020-03-06T15:20:04Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。