論文の概要: Revealing Distributional Vulnerability of Explicit Discriminators by
Implicit Generators
- arxiv url: http://arxiv.org/abs/2108.09976v1
- Date: Mon, 23 Aug 2021 07:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:36:45.989120
- Title: Revealing Distributional Vulnerability of Explicit Discriminators by
Implicit Generators
- Title(参考訳): 入射発電機による明示的識別器の分布脆弱性の解明
- Authors: Zhilin Zhao and Longbing Cao and Kun-Yu Lin
- Abstract要約: 観測可能な分布内分布(ID)サンプルをトレーニングした明示的識別器は、分布的脆弱性のため、分布外分布(OOD)サンプルに対して高い信頼度を予測できる。
暗黙的ジェネレータ(FIG)によるテクスティファインチューニング型明示的識別器の新しい手法を提案する。
- 参考スコア(独自算出の注目度): 28.381534035320733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An explicit discriminator trained on observable in-distribution (ID) samples
can make high-confidence prediction on out-of-distribution (OOD) samples due to
its distributional vulnerability. This is primarily caused by the limited ID
samples observable for training discriminators when OOD samples are
unavailable. To address this issue, the state-of-the-art methods train the
discriminator with OOD samples generated by general assumptions without
considering the data and network characteristics. However, different network
architectures and training ID datasets may cause diverse vulnerabilities, and
the generated OOD samples thus usually misaddress the specific distributional
vulnerability of the explicit discriminator. To reveal and patch the
distributional vulnerabilities, we propose a novel method of
\textit{fine-tuning explicit discriminators by implicit generators} (FIG).
According to the Shannon entropy, an explicit discriminator can construct its
corresponding implicit generator to generate specific OOD samples without extra
training costs. A Langevin Dynamic sampler then draws high-quality OOD samples
from the generator to reveal the vulnerability. Finally, a regularizer,
constructed according to the design principle of the implicit generator,
patches the distributional vulnerability by encouraging those generated OOD
samples with high entropy. Our experiments on four networks, four ID datasets
and seven OOD datasets demonstrate that FIG achieves state-of-the-art OOD
detection performance and maintains a competitive classification capability.
- Abstract(参考訳): 観測可能な分布内分布(ID)サンプルをトレーニングした明示的識別器は、分布の脆弱性により、分布外分布(OOD)サンプルに対して高い信頼度を予測できる。
これは主に、OODサンプルが利用できない場合に、識別器を訓練するための限定的なIDサンプルが原因である。
この問題に対処するため,最先端手法では,データやネットワーク特性を考慮せず,一般的な仮定によって生成されたoodサンプルを用いて判別器を訓練する。
しかし、異なるネットワークアーキテクチャとトレーニングIDデータセットは多様な脆弱性を引き起こす可能性があるため、生成されたOODサンプルは通常、明示的な識別器の特定の分散脆弱性を誤る。
分布的脆弱性を解明し,パッチを当てるために,暗黙的生成器(fig)による識別法を新たに提案する。
シャノンエントロピーによれば、明示的な判別器は対応する暗黙的生成器を構成でき、余分な訓練コストなしで特定のoodサンプルを生成することができる。
次に、Langevin Dynamic samplerがジェネレータから高品質なOODサンプルを描画して脆弱性を明らかにする。
最後に、暗黙発生器の設計原理に基づいて構築された正規化器は、高エントロピーで生成されたOODサンプルを奨励することにより、分布上の脆弱性をパッチする。
4つのネットワーク,4つのIDデータセット,7つのOODデータセットに対する実験により,FIGが最先端のOOD検出性能を実現し,競争力のある分類能力を維持することを示す。
関連論文リスト
- Semantic or Covariate? A Study on the Intractable Case of Out-of-Distribution Detection [70.57120710151105]
ID分布のセマンティック空間をより正確に定義する。
また,OOD と ID の区別性を保証する "Tractable OOD" の設定も定義する。
論文 参考訳(メタデータ) (2024-11-18T03:09:39Z) - Going Beyond Conventional OOD Detection [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、重要なアプリケーションにディープラーニングモデルの安全なデプロイを保証するために重要である。
従来型OOD検出(ASCOOD)への統一的アプローチを提案する。
提案手法は, スパイラル相関の影響を効果的に軽減し, 微粒化特性の獲得を促す。
論文 参考訳(メタデータ) (2024-11-16T13:04:52Z) - Long-Tailed Out-of-Distribution Detection via Normalized Outlier Distribution Adaptation [24.216526107669345]
アウト・オブ・ディストリビューション(OOD)検出における重要な課題は、トレーニング中に接地型OODサンプルが存在しないことである。
この分散シフト問題に対処するために、正規化外乱分布適応(AdaptOD)を提案する。
AdaptODは、外れ値サンプルに基づいてバニラの外れ値分布を真のOOD分布に効果的に適応する。
論文 参考訳(メタデータ) (2024-10-28T07:54:29Z) - Pseudo Outlier Exposure for Out-of-Distribution Detection using
Pretrained Transformers [3.8839179829686126]
拒否ネットワークは、テストOODサンプルを検出するために、IDと多様な外れ値サンプルで訓練することができる。
本稿では,Pseudo Outlier Exposure (POE) と呼ばれる手法を提案する。
本手法は外部OODデータを一切必要とせず,既製のトランスフォーマーで容易に実装できる。
論文 参考訳(メタデータ) (2023-07-18T17:29:23Z) - Energy-bounded Learning for Robust Models of Code [16.592638312365164]
プログラミングでは、コード表現の学習には、コード分類、コード検索、コメント生成、バグ予測など、さまざまなアプリケーションがある。
本稿では,ソースコードモデルのトレーニングプロセスにこれらのアウト・オブ・ディストリビューション・サンプルを組み込むため,エネルギー境界学習目標関数を用いて,イン・ディストリビューション・サンプルにより高いスコアを割り当て,アウト・オブ・ディストリビューション・サンプルに低いスコアを割り当てることを提案する。
論文 参考訳(メタデータ) (2021-12-20T06:28:56Z) - Bridging In- and Out-of-distribution Samples for Their Better
Discriminability [18.84265231678354]
2つの中間に位置するサンプルを考慮し、それらをネットワークのトレーニングに使用する。
我々は複数の画像変換を用いて、様々な方法で入力を破損させ、重大度レベルが異なるようなサンプルを生成する。
クリーンなIDサンプルをトレーニングしたネットワークを用いて,単一の画像変換によって生成されたサンプルが,IDとOODの間にどこにあるかを推定する。
論文 参考訳(メタデータ) (2021-01-07T11:34:18Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Sampling-Decomposable Generative Adversarial Recommender [84.05894139540048]
サンプル分解可能な生成逆数レコメンダ(SD-GAR)を提案する。
本フレームワークでは, 自己正規化重要度サンプリングにより, 生成元と最適値とのばらつきを補償する。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
論文 参考訳(メタデータ) (2020-11-02T13:19:10Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。