論文の概要: Out-of-Distribution Detection with Prototypical Outlier Proxy
- arxiv url: http://arxiv.org/abs/2412.16884v1
- Date: Sun, 22 Dec 2024 06:32:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:26.467752
- Title: Out-of-Distribution Detection with Prototypical Outlier Proxy
- Title(参考訳): 原型外乱プロキシを用いたアウトオブディストリビューション検出
- Authors: Mingrong Gong, Chaoqi Chen, Qingqiang Sun, Yue Wang, Hui Huang,
- Abstract要約: よく訓練されたディープモデルは、目に見えないテストデータに対して過剰な自信を持つ傾向があります。
近年の研究では、実際のまたは合成された外れ値を利用して問題を緩和しようとしている。
POP(Prototypeal Outlier Proxy)を提案する。
- 参考スコア(独自算出の注目度): 17.130831264648997
- License:
- Abstract: Out-of-distribution (OOD) detection is a crucial task for deploying deep learning models in the wild. One of the major challenges is that well-trained deep models tend to perform over-confidence on unseen test data. Recent research attempts to leverage real or synthetic outliers to mitigate the issue, which may significantly increase computational costs and be biased toward specific outlier characteristics. In this paper, we propose a simple yet effective framework, Prototypical Outlier Proxy (POP), which introduces virtual OOD prototypes to reshape the decision boundaries between ID and OOD data. Specifically, we transform the learnable classifier into a fixed one and augment it with a set of prototypical weight vectors. Then, we introduce a hierarchical similarity boundary loss to impose adaptive penalties depending on the degree of misclassification. Extensive experiments across various benchmarks demonstrate the effectiveness of POP. Notably, POP achieves average FPR95 reductions of 7.70%, 6.30%, and 5.42% over the second-best methods on CIFAR-10, CIFAR-100, and ImageNet-200, respectively. Moreover, compared to the recent method NPOS, which relies on outlier synthesis, POP trains 7.2X faster and performs inference 19.5X faster. The source code is available at: https://github.com/gmr523/pop.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、ディープラーニングモデルを野生に展開する上で重要なタスクである。
主要な課題の1つは、よく訓練されたディープモデルは、目に見えないテストデータに対して過度に自信を持つ傾向があることである。
近年の研究では、実際のまたは合成の外れ値を活用して問題を緩和し、計算コストを大幅に増加させ、特定の外れ値特性に偏りが生じる可能性がある。
本稿では,POP(Prototypeal Outlier Proxy)というシンプルなフレームワークを提案する。このフレームワークは仮想OODプロトタイプを導入し,IDとOODデータ間の決定境界を再構築する。
具体的には、学習可能な分類器を固定化して、原型重みベクトルの集合で拡張する。
そして,誤分類の程度に応じて適応的な罰則を課すために,階層的類似性境界損失を導入する。
様々なベンチマークによる大規模な実験は、POPの有効性を示している。
特に、POPは、それぞれCIFAR-10、CIFAR-100、ImageNet-200の2番目のベストメソッドよりも平均7.70%、6.30%、および5.42%のFPR95の削減を実現している。
さらに、最近の手法である NPOS と比較して、POP は7.2倍、推論は19.5倍高速である。
ソースコードは、https://github.com/gmr523/pop.com/で入手できる。
関連論文リスト
- Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Advancing Adversarial Robustness Through Adversarial Logit Update [10.041289551532804]
敵の訓練と敵の浄化は最も広く認知されている防衛戦略の一つである。
そこで本稿では,新たな原則であるALU(Adversarial Logit Update)を提案する。
本手法は,幅広い敵攻撃に対する最先端手法と比較して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-29T07:13:31Z) - DOS: Diverse Outlier Sampling for Out-of-Distribution Detection [18.964462007139055]
我々は,OOD検出性能の外れ値のサンプリングには多様性が重要であることを示した。
本稿では,多種多様かつ情報的外乱を選択するためにDOS (Diverse Outlier Smpling) という,単純で斬新なサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2023-06-03T07:17:48Z) - Predicted Embedding Power Regression for Large-Scale Out-of-Distribution
Detection [77.1596426383046]
本研究では,学習過程において学習したラベル分布に基づいて,予測されたクラスラベルの確率を計算する手法を開発した。
提案手法は,計算コストの最小化のみで,現在の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-03-07T18:28:39Z) - Boosting Out-of-Distribution Detection with Multiple Pre-trained Models [41.66566916581451]
事前訓練されたモデルを用いたポストホック検出は有望な性能を示し、大規模にスケールできる。
本稿では,事前訓練されたモデルの動物園から抽出した複数の検出決定をアンサンブルすることで,検出強化手法を提案する。
CIFAR10 と ImageNet のベンチマークでは, 相対性能を 65.40% と 26.96% で大幅に改善した。
論文 参考訳(メタデータ) (2022-12-24T12:11:38Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [14.72099568017039]
本稿では,従来の対人訓練用データセットのみを用いて,最先端のパフォーマンスを得るために,分岐直交補助訓練(BORT)を提案する。
我々は, CIFAR-10, CIFAR-100, SVHN に対する Epsilon = 8/255 の ell_infty ノルム束縛摂動に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - VOS: Learning What You Don't Know by Virtual Outlier Synthesis [23.67449949146439]
最近、ニューラルネットワークの安全なデプロイの重要性から、アウト・オブ・ディストリビューション(OOD)検出が注目されている。
従来のアプローチでは、モデル正則化に実際の外れ値データセットを頼っていた。
仮想外れ値の適応合成によるOOD検出のための新しいフレームワークであるVOSを提案する。
論文 参考訳(メタデータ) (2022-02-02T18:43:01Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。