論文の概要: Towards In-distribution Compatibility in Out-of-distribution Detection
- arxiv url: http://arxiv.org/abs/2208.13433v1
- Date: Mon, 29 Aug 2022 09:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:13:24.750010
- Title: Towards In-distribution Compatibility in Out-of-distribution Detection
- Title(参考訳): out-of-distribution detectionにおけるin-distribution compatibilityに向けて
- Authors: Boxi Wu, Jie Jiang, Haidong Ren, Zifan Du, Wenxiao Wang, Zhifeng Li,
Deng Cai, Xiaofei He, Binbin Lin, Wei Liu
- Abstract要約: 本稿では,深層モデルの上位設計と損失関数の両方を適応させることにより,新しい分布外検出法を提案する。
本手法は,最先端の分布検出性能を実現するとともに,分布内精度も向上する。
- 参考スコア(独自算出の注目度): 30.49191281345763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network, despite its remarkable capability of discriminating
targeted in-distribution samples, shows poor performance on detecting anomalous
out-of-distribution data. To address this defect, state-of-the-art solutions
choose to train deep networks on an auxiliary dataset of outliers. Various
training criteria for these auxiliary outliers are proposed based on heuristic
intuitions. However, we find that these intuitively designed outlier training
criteria can hurt in-distribution learning and eventually lead to inferior
performance. To this end, we identify three causes of the in-distribution
incompatibility: contradictory gradient, false likelihood, and distribution
shift. Based on our new understandings, we propose a new out-of-distribution
detection method by adapting both the top-design of deep models and the loss
function. Our method achieves in-distribution compatibility by pursuing less
interference with the probabilistic characteristic of in-distribution features.
On several benchmarks, our method not only achieves the state-of-the-art
out-of-distribution detection performance but also improves the in-distribution
accuracy.
- Abstract(参考訳): ディープニューラルネットワークは、ターゲットの分布サンプルを識別する能力は優れているが、異常な分布データの検出性能は低い。
この欠陥に対処するため、最先端のソリューションでは、外れ値の補助データセットでディープネットワークをトレーニングする。
これらの補助外乱に対する様々な訓練基準は、ヒューリスティックな直観に基づいて提案される。
しかし, 直観的に設計した不適切な学習基準は, 分布学習を損なう可能性があり, 最終的には成績が低下する。
この結果から,非分配的不和合性の3つの原因,矛盾勾配,疑似可能性,分布シフトを同定した。
そこで本研究では,深層モデルのトップ設計と損失関数の両方を適応させることにより,新たな分散検出手法を提案する。
本手法は,分布特性の確率的特性への干渉を少なくして,分布内互換性を実現する。
いくつかのベンチマークにおいて,本手法は最先端の分散検出性能を達成するだけでなく,分散精度を向上させる。
関連論文リスト
- Protected Test-Time Adaptation via Online Entropy Matching: A Betting Approach [14.958884168060097]
オンライン自己学習によるテスト時間適応のための新しい手法を提案する。
提案手法は,マーチンガレットとオンライン学習の概念を組み合わせることで,分布変化に反応可能な検出ツールを構築する。
実験結果から, 分散シフト時のテスト時間精度は, 精度とキャリブレーションを保ちながら向上することが示された。
論文 参考訳(メタデータ) (2024-08-14T12:40:57Z) - Uncertainty Quantification via Stable Distribution Propagation [60.065272548502]
本稿では,ニューラルネットワークによる安定確率分布の伝播手法を提案する。
提案手法は局所線形化に基づいており,ReLU非線型性に対する全変動距離の近似値として最適であることを示す。
論文 参考訳(メタデータ) (2024-02-13T09:40:19Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Out-of-distribution Detection by Cross-class Vicinity Distribution of
In-distribution Data [36.66825830101456]
画像分類のためのディープニューラルネットワークは、トレーニングにおいて、インディストリビューション入力を対応する基底真理ラベルにマップすることしか学ばない。
これは、全てのサンプルが独立であり、同一に分散しているという仮定から生じる。
textitCross-class Vicinity Distributionは、複数のin-distributionサンプルを混合したアウト・オブ・ディストリビューションサンプルが、その構成成分の同じクラスを共有していないことを仮定して導入される。
論文 参考訳(メタデータ) (2022-06-19T12:03:33Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Ramifications of Approximate Posterior Inference for Bayesian Deep
Learning in Adversarial and Out-of-Distribution Settings [7.476901945542385]
ベイジアン深層学習モデルが従来のニューラルネットワークよりわずかに優れていることを示す。
予備的な調査は、初期化、アーキテクチャ、アクティベーション関数の選択によるバイアスの潜在的固有の役割を示している。
論文 参考訳(メタデータ) (2020-09-03T16:58:15Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。