論文の概要: Generalized ODIN: Detecting Out-of-distribution Image without Learning
from Out-of-distribution Data
- arxiv url: http://arxiv.org/abs/2002.11297v2
- Date: Tue, 31 Mar 2020 18:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:51:20.609607
- Title: Generalized ODIN: Detecting Out-of-distribution Image without Learning
from Out-of-distribution Data
- Title(参考訳): 一般ODIN:分布外データから学ぶことなく分布外画像を検出する
- Authors: Yen-Chang Hsu, Yilin Shen, Hongxia Jin, Zsolt Kira
- Abstract要約: 我々は,OoD検出性能を改善しつつ,ニューラルネットワークをOoDデータのチューニングから解放する2つの方法を提案する。
具体的には、信頼性スコアリングと修正された入力前処理法を分離することを提案する。
大規模画像データセットのさらなる解析により、セマンティックシフトと非セマンティックシフトの2種類の分布シフトが有意な差を示すことが示された。
- 参考スコア(独自算出の注目度): 87.61504710345528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have attained remarkable performance when applied to
data that comes from the same distribution as that of the training set, but can
significantly degrade otherwise. Therefore, detecting whether an example is
out-of-distribution (OoD) is crucial to enable a system that can reject such
samples or alert users. Recent works have made significant progress on OoD
benchmarks consisting of small image datasets. However, many recent methods
based on neural networks rely on training or tuning with both in-distribution
and out-of-distribution data. The latter is generally hard to define a-priori,
and its selection can easily bias the learning. We base our work on a popular
method ODIN, proposing two strategies for freeing it from the needs of tuning
with OoD data, while improving its OoD detection performance. We specifically
propose to decompose confidence scoring as well as a modified input
pre-processing method. We show that both of these significantly help in
detection performance. Our further analysis on a larger scale image dataset
shows that the two types of distribution shifts, specifically semantic shift
and non-semantic shift, present a significant difference in the difficulty of
the problem, providing an analysis of when ODIN-like strategies do or do not
work.
- Abstract(参考訳): 深層ニューラルネットワークは、トレーニングセットと同じ分布から得られるデータに適用した場合、顕著なパフォーマンスを達成したが、それ以外は大幅に劣化する可能性がある。
したがって、サンプルを拒否したり、ユーザに警告したりするシステムを実現するためには、サンプルが配布外かどうか(ood)を検出することが不可欠である。
最近の研究は、小さな画像データセットからなるoodベンチマークで大きな進歩を遂げている。
しかし、ニューラルネットワークに基づく最近の多くの手法は、分布内データと分布外データの両方でトレーニングやチューニングに依存している。
後者は一般的にa-prioriを定義するのが難しく、その選択は容易に学習をバイアスする。
我々は、OoDデータによるチューニングの必要性から、OoD検出性能を改善しながら、ODINを解放するための2つの戦略を提案する。
具体的には,信頼度スコアリングの分解と,修正された入力前処理法を提案する。
これら2つが検出性能に大きく寄与することを示す。
大規模画像データセットのさらなる分析により,2種類の分散シフト,特に意味的シフトと非意味的シフトは,問題の難易度に有意な差を示し,オーディン的戦略が機能しないか否かの分析を提供する。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Leveraging Latent Diffusion Models for Training-Free In-Distribution Data Augmentation for Surface Defect Detection [9.784793380119806]
データ拡張のためのトレーニング不要な拡散型In-Distribution Anomaly GenerationパイプラインであるDIAGを紹介する。
従来の画像生成技術とは異なり、我々は、ドメインの専門家がモデルにマルチモーダルガイダンスを提供する、Human-in-the-loopパイプラインを実装している。
我々は、挑戦的なKSDD2データセットに対する最先端データ拡張アプローチに関して、DIAGの有効性と汎用性を実証する。
論文 参考訳(メタデータ) (2024-07-04T14:28:52Z) - Anomaly Detection with Test Time Augmentation and Consistency Evaluation [13.709281244889691]
本稿では,TTA-AD(Test Time Augmentation Anomaly Detection)と呼ばれる簡易かつ効果的な異常検出アルゴリズムを提案する。
我々は、分散データよりもトレーニングされたネットワーク上でのオリジナルバージョンと拡張バージョンについて、分散データの方が一貫性のある予測を楽しむことを観察した。
様々な高解像度画像ベンチマークデータセットの実験は、TTA-ADが同等またはより良い検出性能を達成することを示した。
論文 参考訳(メタデータ) (2022-06-06T04:27:06Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - Entropy Maximization and Meta Classification for Out-Of-Distribution
Detection in Semantic Segmentation [7.305019142196585]
自動運転など多くのアプリケーションにおいて,OoD(Out-of-Distribution)サンプルが不可欠である。
OoD検出の自然なベースラインアプローチは、ピクセル回りのソフトマックスエントロピーのしきい値です。
そのアプローチを大幅に改善する2段階の手順を提案する。
論文 参考訳(メタデータ) (2020-12-09T11:01:06Z) - Understanding Anomaly Detection with Deep Invertible Networks through
Hierarchies of Distributions and Features [4.25227087152716]
畳み込みネットワークは、任意の自然言語データセットでトレーニングされた場合、同様の低レベルの特徴分布を学習する。
inlier とoutlier の識別的特徴が高いレベルにある場合、異常検出は特に困難になる。
モデルバイアスとドメインが高レベルの差を検出する前に負の影響を除去する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-18T20:56:14Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。