論文の概要: Effective Out-of-Distribution Detection in Classifier Based on
PEDCC-Loss
- arxiv url: http://arxiv.org/abs/2204.04665v1
- Date: Sun, 10 Apr 2022 11:47:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 15:01:43.006232
- Title: Effective Out-of-Distribution Detection in Classifier Based on
PEDCC-Loss
- Title(参考訳): pedcc-lossに基づく分類器の効率的な分散検出
- Authors: Qiuyu Zhu, Guohui Zheng, Yingying Yan
- Abstract要約: PEDCC-Loss を用いたアウト・オブ・ディストリビューション例の検出に有効なアルゴリズムを提案する。
PEDCC(Predefined Evenly-Distribution Class Centroids)分類器によって出力される信頼スコアの性質を数学的に解析する。
次に,より効果的なスコアリング機能を構築し,分布内(ID)と分布外(out-of-distriion)を区別する。
- 参考スコア(独自算出の注目度): 5.614122064282257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks suffer from the overconfidence issue in the open world,
meaning that classifiers could yield confident, incorrect predictions for
out-of-distribution (OOD) samples. Thus, it is an urgent and challenging task
to detect these samples drawn far away from training distribution based on the
security considerations of artificial intelligence. Many current methods based
on neural networks mainly rely on complex processing strategies, such as
temperature scaling and input preprocessing, to obtain satisfactory results. In
this paper, we propose an effective algorithm for detecting out-of-distribution
examples utilizing PEDCC-Loss. We mathematically analyze the nature of the
confidence score output by the PEDCC (Predefined Evenly-Distribution Class
Centroids) classifier, and then construct a more effective scoring function to
distinguish in-distribution (ID) and out-of-distribution. In this method, there
is no need to preprocess the input samples and the computational burden of the
algorithm is reduced. Experiments demonstrate that our method can achieve
better OOD detection performance.
- Abstract(参考訳): ディープニューラルネットワークは、オープン世界での自信過剰な問題に苦しんでいる。つまり、分類器は、分散(ood)サンプルに対する自信と誤った予測をもたらす可能性がある。
したがって、人工知能のセキュリティ上の配慮に基づき、トレーニング分布から遠ざかってこれらのサンプルを検出することは、緊急かつ困難な課題である。
ニューラルネットワークに基づく現在の多くの手法は主に温度スケーリングや入力前処理のような複雑な処理戦略に依存しており、良好な結果が得られる。
本稿では,pedcc-lossを用いた分散サンプルの検出手法を提案する。
PEDCC(Predefined Evenly-Distribution Class Centroids)分類器によって出力される信頼スコアの性質を数学的に解析し、より効果的なスコア関数を構築し、分布内(ID)と分布外(out-of-distriion)を区別する。
この方法では、入力サンプルを前処理する必要がなく、アルゴリズムの計算負担が軽減される。
実験により,OOD検出性能が向上することが確認された。
関連論文リスト
- Embedding Trajectory for Out-of-Distribution Detection in Mathematical Reasoning [50.84938730450622]
数理推論におけるOOD検出にトラジェクトリボラティリティを用いたトラジェクトリベースのTVスコアを提案する。
本手法は, 数学的推論シナリオ下でのGLM上での従来のアルゴリズムよりも優れる。
提案手法は,複数選択質問などの出力空間における高密度特徴を持つアプリケーションに拡張することができる。
論文 参考訳(メタデータ) (2024-05-22T22:22:25Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Beyond Mahalanobis-Based Scores for Textual OOD Detection [32.721317681946246]
動作要件を満たすTransformerアーキテクチャに基づく分類器のための新しいOOD検出器TRUSTEDを紹介する。
TRUSTEDの効率性は、すべての隠された層がOODのサンプルを検出するための関連情報を持っているという実りある考えに依存している。
実験では、さまざまなチェックポイント、シード、データセットを含む51kのモデル構成を取り上げ、TRUSTEDが最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-11-24T10:51:58Z) - Window-Based Distribution Shift Detection for Deep Neural Networks [21.73028341299301]
本研究では,データストリームを受信したディープニューラルネットワーク(DNN)の正常動作をモニタリングする場合について検討する。
選択的予測原理を用いて,DNNの分布偏差検出手法を提案する。
我々の新しい検出法は、最先端技術よりもかなり少ない時間を消費しながら、オンパー以上の性能を発揮する。
論文 参考訳(メタデータ) (2022-10-19T21:27:25Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - An Algorithm for Out-Of-Distribution Attack to Neural Network Encoder [1.7305469511995404]
Out-Of-Distribution (OOD) サンプルはトレーニングセットの分布に従わないため、OOD サンプルの予測されたクラスラベルは意味のないものとなる。
本手法は理論的保証がなく,OODアタックアルゴリズムにより事実上破壊可能であることを示す。
また、Glow chance-based OOD detectionも破壊可能であることも示している。
論文 参考訳(メタデータ) (2020-09-17T02:10:36Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。