論文の概要: Free Lunch for Generating Effective Outlier Supervision
- arxiv url: http://arxiv.org/abs/2301.06657v2
- Date: Thu, 18 Jan 2024 02:10:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 21:11:02.937574
- Title: Free Lunch for Generating Effective Outlier Supervision
- Title(参考訳): 有効外乱スーパービジョン生成のためのフリーランチ
- Authors: Sen Pei, Jiaxi Sun, Richard Yi Da Xu, Bin Fan, Shiming Xiang, and
Gaofeng Meng
- Abstract要約: 本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
- 参考スコア(独自算出の注目度): 46.37464572099351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When deployed in practical applications, computer vision systems will
encounter numerous unexpected images (\emph{{i.e.}}, out-of-distribution data).
Due to the potentially raised safety risks, these aforementioned unseen data
should be carefully identified and handled. Generally, existing approaches in
dealing with out-of-distribution (OOD) detection mainly focus on the
statistical difference between the features of OOD and in-distribution (ID)
data extracted by the classifiers. Although many of these schemes have brought
considerable performance improvements, reducing the false positive rate (FPR)
when processing open-set images, they necessarily lack reliable theoretical
analysis and generalization guarantees. Unlike the observed ways, in this
paper, we investigate the OOD detection problem based on the Bayes rule and
present a convincing description of the reason for failures encountered by
conventional classifiers. Concretely, our analysis reveals that refining the
probability distribution yielded by the vanilla neural networks is necessary
for OOD detection, alleviating the issues of assigning high confidence to OOD
data. To achieve this effortlessly, we propose an ultra-effective method to
generate near-realistic outlier supervision. Extensive experiments on
large-scale benchmarks reveal that our proposed \texttt{BayesAug} significantly
reduces the FPR95 over 12.50\% compared with the previous schemes, boosting the
reliability of machine learning systems. The code will be made publicly
available.
- Abstract(参考訳): 実用的なアプリケーションでデプロイされると、コンピュータビジョンシステムは多数の予期せぬイメージに遭遇する("\emph{{i.e.}}, out-of-distribution data")。
安全性のリスクが高まる可能性があるため、前述の未確認データは慎重に識別され、処理されるべきである。
一般に、OODの特徴と分類器が抽出したIDデータとの統計的差異に主に焦点をあてて、OODのアウト・オブ・ディストリビューション(OOD)検出に対処する既存のアプローチである。
これらのスキームの多くは、オープンセット画像を処理する際の偽陽性率(FPR)を減少させるなど、大幅な性能向上をもたらしたが、信頼性のある理論的解析や一般化保証は欠如している。
そこで,本研究では,ベイズ則に基づくood検出問題を調査し,従来の分類器が遭遇する故障の原因について説得力のある説明を行う。
具体的には,バニラニューラルネットワークが生み出す確率分布の精製がOOD検出に必要であり,OODデータに高い信頼度を割り当てるという問題を緩和する。
これを実現するために, ほぼ現実的な外部監視を実現するための超効率的な手法を提案する。
大規模なベンチマーク実験により,提案した「texttt{BayesAug}」は,従来の手法に比べてFPR95を12.50倍以上削減し,機械学習システムの信頼性を高めた。
コードは公開される予定だ。
関連論文リスト
- Margin-bounded Confidence Scores for Out-of-Distribution Detection [2.373572816573706]
本稿では,非自明なOOD検出問題に対処するため,Margin bounded Confidence Scores (MaCS) と呼ばれる新しい手法を提案する。
MaCS は ID と OOD のスコアの差を拡大し、決定境界をよりコンパクトにする。
画像分類タスクのための様々なベンチマークデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-22T05:40:25Z) - Rethinking Out-of-Distribution Detection on Imbalanced Data Distribution [38.844580833635725]
アーキテクチャ設計におけるバイアスを緩和し,不均衡なOOD検出器を増強する訓練時間正規化手法を提案する。
提案手法は,CIFAR10-LT,CIFAR100-LT,ImageNet-LTのベンチマークに対して一貫した改良を行う。
論文 参考訳(メタデータ) (2024-07-23T12:28:59Z) - Mitigating Overconfidence in Out-of-Distribution Detection by Capturing Extreme Activations [1.8531577178922987]
Overconfidence"は特定のニューラルネットワークアーキテクチャの本質的な性質であり、OOD検出の低さにつながる。
ニューラルネットワークの最後層における極端なアクティベーション値を計測し、この過信のプロキシを利用して、複数のOOD検出ベースラインを改善する。
基準値と比較すると,OOD検出は2桁に増加し,精度が向上することが多い。
論文 参考訳(メタデータ) (2024-05-21T10:14:50Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - Improving Out-of-Distribution Detection via Epistemic Uncertainty
Adversarial Training [29.4569172720654]
我々は,ドロップアウトアンサンブルによって予測される不確実性の攻撃を組み込んだ,単純な対向訓練手法を開発した。
本手法は,OOD検出性能を標準データ上で向上させる(逆向きではない)とともに,ほぼランダムな推定性能から$geq 0.75$まで,標準化された部分AUCを改善する。
論文 参考訳(メタデータ) (2022-09-05T14:32:19Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Certifiably Adversarially Robust Detection of Out-of-Distribution Data [111.67388500330273]
我々は,OOD点における信頼度を低くすることで,OOD検出の証明可能な最悪のケースを保証することを目的としている。
トレーニング時に見られるOODデータセットを超えて一般化されたOODデータの信頼性の非自明な境界が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-16T17:16:47Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。