論文の概要: Norm-Scaling for Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2205.03493v1
- Date: Fri, 6 May 2022 22:31:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 14:44:23.904047
- Title: Norm-Scaling for Out-of-Distribution Detection
- Title(参考訳): out-of-distribution detectionのためのノルムスケーリング
- Authors: Deepak Ravikumar and Kaushik Roy
- Abstract要約: アウト・オブ・ディストリビューション(OoD)入力は、データセットの真の基盤分布に属さない例である。
本稿では,各クラスごとに個別にロジットを正規化するノルムスケーリングを提案する。
AUROCは9.78%,AUPRは5.99%,FPR95は33.19%改善した。
- 参考スコア(独自算出の注目度): 6.309365332210523
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Out-of-Distribution (OoD) inputs are examples that do not belong to the true
underlying distribution of the dataset. Research has shown that deep neural
nets make confident mispredictions on OoD inputs. Therefore, it is critical to
identify OoD inputs for safe and reliable deployment of deep neural nets. Often
a threshold is applied on a similarity score to detect OoD inputs. One such
similarity is angular similarity which is the dot product of latent
representation with the mean class representation. Angular similarity encodes
uncertainty, for example, if the angular similarity is less, it is less certain
that the input belongs to that class. However, we observe that, different
classes have different distributions of angular similarity. Therefore, applying
a single threshold for all classes is not ideal since the same similarity score
represents different uncertainties for different classes. In this paper, we
propose norm-scaling which normalizes the logits separately for each class.
This ensures that a single value consistently represents similar uncertainty
for various classes. We show that norm-scaling, when used with maximum softmax
probability detector, achieves 9.78% improvement in AUROC, 5.99% improvement in
AUPR and 33.19% reduction in FPR95 metrics over previous state-of-the-art
methods.
- Abstract(参考訳): Out-of-Distribution (OoD)入力は、データセットの真の基盤分布に属さない例である。
研究によると、深層ニューラルネットワークはOoD入力に対して確実な誤った予測を行う。
したがって、ディープニューラルネットの安全かつ信頼性の高い展開のために、ood入力を特定することが重要である。
しばしば、OoD入力を検出するために類似度スコアに閾値が適用される。
そのような類似性の1つは、平均クラス表現を持つ潜在表現のドット積である角類似性である。
Angularの類似性は不確実性を符号化する、例えば、角の類似性が小さい場合には、入力がそのクラスに属しているかどうかが低い。
しかし、異なるクラスは角相似性の異なる分布を持つことを観察する。
したがって、すべてのクラスに単一のしきい値を適用することは、同じ類似度スコアが異なるクラスに対して異なる不確実性を示すため、理想的ではない。
本稿では,各クラスごとにロジットを別々に正規化するノルムスケーリングを提案する。
これにより、単一の値が様々なクラスの同様の不確実性を表すことが保証される。
最大ソフトマックス確率検出器と併用すると、aurocの9.78%改善、auprの5.99%改善、以前の最先端手法に対するfpr95測定値の33.19%削減が達成される。
関連論文リスト
- Differentiable Optimization of Similarity Scores Between Models and Brains [1.5391321019692434]
線形回帰、CKA(Centered Kernel Alignment)、正規化バーレス類似度(NBS)、角状プロクリスト距離といった類似度は、この類似度を定量化するためにしばしば用いられる。
本稿では、類似度の高いスコアと「良い」スコアを構成するスコアについて調査する新しいツールについて紹介する。
驚くべきことに、高い類似度スコアは、ニューラルデータと整合した方法でタスク関連情報を符号化することを保証していない。
論文 参考訳(メタデータ) (2024-07-09T17:31:47Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Partial and Asymmetric Contrastive Learning for Out-of-Distribution
Detection in Long-Tailed Recognition [80.07843757970923]
既存のOOD検出手法は,トレーニングセットが長距離分布している場合,大幅な性能劣化に悩まされていることを示す。
本稿では,部分的および非対称的な教師付きコントラスト学習(PASCL)を提案する。
我々の手法は従来の最先端の手法を1.29%$, $1.45%$, $0.69%$異常検出偽陽性率(FPR)と$3.24%$, 4,.06%$, 7,89%$in-distributionで上回ります。
論文 参考訳(メタデータ) (2022-07-04T01:53:07Z) - Similarity Contrastive Estimation for Self-Supervised Soft Contrastive
Learning [0.41998444721319206]
優れたデータ表現は、インスタンス間の関係、つまり意味的類似性を含んでいる、と我々は主張する。
類似性コントラスト推定(SCE)と呼ばれるインスタンス間の意味的類似性を用いたコントラスト学習の新しい定式化を提案する。
我々の訓練対象はソフトコントラスト学習と見なすことができる。
論文 参考訳(メタデータ) (2021-11-29T15:19:15Z) - Intra-Class Uncertainty Loss Function for Classification [6.523198497365588]
特にアンバランスクラスを含むデータセットでは、クラス内の不確実性/可変性は考慮されない。
本フレームワークでは,各クラスの深いネットワークによって抽出された特徴を,独立なガウス分布によって特徴付ける。
提案手法は,より優れたクラス表現を学習することで,分類性能の向上を示す。
論文 参考訳(メタデータ) (2021-04-12T09:02:41Z) - A First Step Towards Distribution Invariant Regression Metrics [1.370633147306388]
分類において、F-Measure や Accuracy のようなパフォーマンス指標は、クラス分布に大きく依存していると繰り返し述べられている。
ロボットアプリケーションにおけるオドメトリパラメータの分布は,例えば,異なるセッション間で大きく異なる可能性がある。
ここでは、すべての関数値に対して等しく機能する回帰アルゴリズムや、高速のような特定の境界領域にフォーカスする回帰アルゴリズムが必要です。
論文 参考訳(メタデータ) (2020-09-10T23:40:46Z) - Class-Similarity Based Label Smoothing for Confidence Calibration [2.055949720959582]
信頼性校正を改善するため,新しいラベルスムーシング方式を提案する。
異なるクラスは固有の類似性が異なるため、より類似したクラスは最終的な出力においてより近い確率値をもたらす。
これは、ラベル値が参照クラスと類似性に基づいている新しいスムーズなラベルの開発を動機付けている。
論文 参考訳(メタデータ) (2020-06-24T20:26:22Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。