論文の概要: Towards Maximizing the Representation Gap between In-Domain &
Out-of-Distribution Examples
- arxiv url: http://arxiv.org/abs/2010.10474v2
- Date: Wed, 6 Jan 2021 13:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:21:29.768565
- Title: Towards Maximizing the Representation Gap between In-Domain &
Out-of-Distribution Examples
- Title(参考訳): In-Domain と Out-of-Distribution の表現ギャップの最大化に向けて
- Authors: Jay Nandy and Wynne Hsu and Mong Li Lee
- Abstract要約: Dirichlet Prior Network (DPN) は、異なる予測の不確実性タイプをモデル化する。
本稿では,DPNにおける新たな損失関数を提案し,ドメイン内とOOD間のテキスト表現ギャップを最大化する。
- 参考スコア(独自算出の注目度): 16.03297438135047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Among existing uncertainty estimation approaches, Dirichlet Prior Network
(DPN) distinctly models different predictive uncertainty types. However, for
in-domain examples with high data uncertainties among multiple classes, even a
DPN model often produces indistinguishable representations from the
out-of-distribution (OOD) examples, compromising their OOD detection
performance. We address this shortcoming by proposing a novel loss function for
DPN to maximize the \textit{representation gap} between in-domain and OOD
examples. Experimental results demonstrate that our proposed approach
consistently improves OOD detection performance.
- Abstract(参考訳): 既存の不確実性推定手法の中で、ディリクレ優先ネットワーク(DPN)は異なる予測不確実性タイプをモデル化している。
しかし、複数のクラス間で高いデータ不確実性を持つドメイン内の例の場合、DPNモデルでさえ、OOD検出性能を損なうことなく、アウト・オブ・ディストリビューション(OOD)の例から識別不能な表現をしばしば生成する。
この欠点に対処するため,DPN の新たな損失関数を提案し,ドメイン内と OOD の例間の \textit{representation gap} を最大化する。
実験の結果,提案手法はOOD検出性能を継続的に向上することが示された。
関連論文リスト
- Learning Non-Linear Invariants for Unsupervised Out-of-Distribution Detection [5.019613806273252]
非線型不変量学習が可能な正規化フロー様アーキテクチャからなるフレームワークを提案する。
提案手法は, 広範囲なU-OODベンチマークにおいて, 最先端の結果を得る。
論文 参考訳(メタデータ) (2024-07-04T16:01:21Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - Unified Out-Of-Distribution Detection: A Model-Specific Perspective [31.68704233156108]
アウト・オブ・ディストリビューション(OOD)検出は、トレーニング分布に属さないテスト例を特定することを目的としている。
我々は、OOD検出を広い範囲で研究するための、新しい統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-13T20:31:35Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Label Smoothed Embedding Hypothesis for Out-of-Distribution Detection [72.35532598131176]
我々は,$k$-NN 密度推定値を用いて OOD サンプルを検出する教師なし手法を提案する。
emphLabel Smoothed Embedding hypothesis と呼ばれるラベル平滑化に関する最近の知見を活用する。
提案手法は,多くのOODベースラインを上回り,新しい有限サンプル高確率統計結果を提供することを示す。
論文 参考訳(メタデータ) (2021-02-09T21:04:44Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Revisiting One-vs-All Classifiers for Predictive Uncertainty and
Out-of-Distribution Detection in Neural Networks [22.34227625637843]
識別型分類器における確率のパラメトリゼーションが不確実性推定に与える影響について検討する。
画像分類タスクのキャリブレーションを改善するために, 1-vs-all の定式化が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-10T01:55:02Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z) - Detecting Out-of-Distribution Examples with In-distribution Examples and
Gram Matrices [8.611328447624679]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(Out-of-Distribution)の例で示すと、信頼性と誤った予測をもたらす。
本稿では,行動パターンとクラス予測の不整合を識別し,OODのサンプルを検出することを提案する。
グラム行列による活動パターンの特徴付けとグラム行列値の異常の同定により,高いOOD検出率が得られることがわかった。
論文 参考訳(メタデータ) (2019-12-28T19:44:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。