論文の概要: SIO: Synthetic In-Distribution Data Benefits Out-of-Distribution
Detection
- arxiv url: http://arxiv.org/abs/2303.14531v1
- Date: Sat, 25 Mar 2023 18:34:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 19:04:45.872684
- Title: SIO: Synthetic In-Distribution Data Benefits Out-of-Distribution
Detection
- Title(参考訳): SIO: アウト・オブ・ディストリビューション検出のための合成イン・ディストリビューションデータ
- Authors: Jingyang Zhang, Nathan Inkawhich, Randolph Linderman, Ryan Luley,
Yiran Chen, Hai Li
- Abstract要約: 我々は、信頼性の高いアウト・オブ・ディストリビューション(OOD)検出器を構築するためのデータ駆動型アプローチを開発した。
我々は、生成モデルを利用して、内部分布(ID)トレーニングセットを利用して、追加の合成ID画像を生成する。
我々のトレーニングフレームワークは、SIOと呼ばれ、既存のOOD検出アルゴリズムと互換性のある「プラグ・アンド・プレイ」技術として機能します。
- 参考スコア(独自算出の注目度): 34.97444309333315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building up reliable Out-of-Distribution (OOD) detectors is challenging,
often requiring the use of OOD data during training. In this work, we develop a
data-driven approach which is distinct and complementary to existing works:
Instead of using external OOD data, we fully exploit the internal
in-distribution (ID) training set by utilizing generative models to produce
additional synthetic ID images. The classifier is then trained using a novel
objective that computes weighted loss on real and synthetic ID samples
together. Our training framework, which is termed SIO, serves as a
"plug-and-play" technique that is designed to be compatible with existing and
future OOD detection algorithms, including the ones that leverage available OOD
training data. Our experiments on CIFAR-10, CIFAR-100, and ImageNet variants
demonstrate that SIO consistently improves the performance of nearly all
state-of-the-art (SOTA) OOD detection algorithms. For instance, on the
challenging CIFAR-10 v.s. CIFAR-100 detection problem, SIO improves the average
OOD detection AUROC of 18 existing methods from 86.25\% to 89.04\% and achieves
a new SOTA of 92.94\% according to the OpenOOD benchmark. Code is available at
https://github.com/zjysteven/SIO.
- Abstract(参考訳): 信頼性の高いアウト・オブ・ディストリビューション(OOD)検出器の構築は困難であり、しばしばトレーニング中にOODデータを使用する必要がある。
本研究では,外部のoodデータを使用する代わりに,生成モデルを用いて新たな合成id画像を生成することで,内部分散(id)トレーニングセットを十分に活用する。
分類器は、実および合成IDサンプルの重み付け損失を計算する新しい目的を用いて訓練される。
我々のトレーニングフレームワークは、SIOと呼ばれており、利用可能なOODトレーニングデータを含む、既存のおよび将来のOOD検出アルゴリズムと互換性があるように設計された「プラグ・アンド・プレイ」技術として機能します。
CIFAR-10, CIFAR-100, ImageNet による実験により, SIO がほぼすべてのSOTA(State-of-the-art) OOD 検出アルゴリズムの性能を一貫して向上することを示した。
例えば、CIFAR-10対CIFAR-100検出問題において、SIOは18の既存メソッドの平均OOD検出AUROCを86.25\%から89.04\%に改善し、OpenOODベンチマークによると92.94\%の新しいSOTAを達成する。
コードはhttps://github.com/zjysteven/SIOで入手できる。
関連論文リスト
- Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Out-of-distribution Detection Learning with Unreliable
Out-of-distribution Sources [73.28967478098107]
アウト・オブ・ディストリビューション(OOD)検出は、予測者が有効な予測を行うことができないOODデータをイン・ディストリビューション(ID)データとして識別する。
通常、OODパターンを識別できる予測器をトレーニングするために、実際のアウト・オブ・ディストリビューション(OOD)データを収集するのは困難である。
本稿では,Auxiliary Task-based OOD Learning (ATOL) というデータ生成に基づく学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T16:26:52Z) - Out-of-distribution Object Detection through Bayesian Uncertainty
Estimation [10.985423935142832]
OOD検出のための新しい,直感的で,スケーラブルなオブジェクト検出手法を提案する。
提案手法は,提案したガウス分布からの重みパラメータサンプリングにより,IDデータとOODデータを識別することができる。
BDD100kおよびVOCデータセットでトレーニングした場合,FPR95スコアを最大8.19%削減し,AUROCスコアを最大13.94%向上させることで,ベイズ対象検出器のOOD識別性能が良好であることを実証した。
論文 参考訳(メタデータ) (2023-10-29T19:10:52Z) - Scaling for Training Time and Post-hoc Out-of-distribution Detection
Enhancement [41.650761556671775]
本稿では,最近の最先端のアウト・オブ・ディストリビューション(OOD)検出手法に関する知見と分析を行う。
我々は,活性化拡大がOOD検出に有害な影響を及ぼす一方で,活性化スケーリングが促進されることを実証した。
OpenOOD v1.5 ImageNet-1Kベンチマークで、AUROCスコアは、近OODでは+1.85%、遠OODデータセットでは+0.74%である。
論文 参考訳(メタデータ) (2023-09-30T02:10:54Z) - In or Out? Fixing ImageNet Out-of-Distribution Detection Evaluation [43.865923770543205]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション・タスクとは無関係な入力を識別する問題である。
現在使用されているテストOODデータセットの大部分は、オープンセット認識(OSR)文学からのデータセットを含む、深刻な問題を抱えている。
我々はNINCOに新しいテストOODデータセットを導入し、各サンプルをIDフリーにチェックし、OOD検出器の強度と障害モードの詳細な分析を可能にする。
論文 参考訳(メタデータ) (2023-06-01T15:48:10Z) - AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection [81.49353397201887]
オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Igeood: An Information Geometry Approach to Out-of-Distribution
Detection [35.04325145919005]
Igeoodは, オフ・オブ・ディストリビューション(OOD)サンプルを効果的に検出する手法である。
Igeoodは任意のトレーニング済みニューラルネットワークに適用され、機械学習モデルにさまざまなアクセス権を持つ。
Igeoodは、さまざまなネットワークアーキテクチャやデータセットにおいて、競合する最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T11:26:35Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。