論文の概要: Out-of-Distribution Detection with Reconstruction Error and
Typicality-based Penalty
- arxiv url: http://arxiv.org/abs/2212.12641v1
- Date: Sat, 24 Dec 2022 03:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 13:58:51.743938
- Title: Out-of-Distribution Detection with Reconstruction Error and
Typicality-based Penalty
- Title(参考訳): レコンストラクションエラーと典型的ペナルティを用いた分布外検出
- Authors: Genki Osada, Takahashi Tsubasa, Budrul Ahsan, Takashi Nishide
- Abstract要約: 正規化フロー(NF)を用いた再構成誤りに基づく新しい手法を提案する。
Preは分布内多様体の外側にあるテスト入力を検出するため、OODの例と同様に敵の例を効果的に検出する。
自然画像データセット, CIFAR-10, TinyImageNet, ILSVRC2012 を用いて,本手法の有効性を示す。
- 参考スコア(独自算出の注目度): 3.7277730514654555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of out-of-distribution (OOD) detection is vital to realize safe and
reliable operation for real-world applications. After the failure of
likelihood-based detection in high dimensions had been shown, approaches based
on the \emph{typical set} have been attracting attention; however, they still
have not achieved satisfactory performance. Beginning by presenting the failure
case of the typicality-based approach, we propose a new reconstruction
error-based approach that employs normalizing flow (NF). We further introduce a
typicality-based penalty, and by incorporating it into the reconstruction error
in NF, we propose a new OOD detection method, penalized reconstruction error
(PRE). Because the PRE detects test inputs that lie off the in-distribution
manifold, it effectively detects adversarial examples as well as OOD examples.
We show the effectiveness of our method through the evaluation using natural
image datasets, CIFAR-10, TinyImageNet, and ILSVRC2012.
- Abstract(参考訳): 現実世界のアプリケーションに対して安全かつ信頼性の高い操作を実現するためには、OOD(out-of-distriion)検出の課題が不可欠である。
高次元における確率に基づく検出の失敗が示された後、 \emph{typeal set} に基づくアプローチが注目されているが、それでも満足できる性能は得られていない。
典型的手法の故障事例を提示することから始め,正規化フロー(nf)を用いた新しい再構成誤差に基づく手法を提案する。
さらに, 典型性に基づくペナルティを導入し, nfの再構成誤差に組み込むことにより, 新たなood検出法であるpenalized reconstruction error (pre)を提案する。
Preは分布内多様体の外側にあるテスト入力を検出するため、OODの例と同様に敵の例を効果的に検出する。
自然画像データセット, CIFAR-10, TinyImageNet, ILSVRC2012 を用いて,本手法の有効性を示す。
関連論文リスト
- Exploring Out-of-distribution Detection for Sparse-view Computed Tomography with Diffusion Models [1.6704428692159]
本研究は,CT再構成における目標分布を非分布として捉えるために訓練された拡散モデルの使用について検討する。
このモデルを用いて, 部分拡散画像の再構成を行い, 複数の再構成誤差によるOOD評価を行う。
以上の結果から,OOD検出の有効性は,前向きの再建法と比較することで達成できることが示唆された。
論文 参考訳(メタデータ) (2024-11-09T23:17:42Z) - Projection Regret: Reducing Background Bias for Novelty Detection via
Diffusion Models [72.07462371883501]
本研究では,非意味情報のバイアスを緩和する効率的な新規性検出手法であるemphProjection Regret(PR)を提案する。
PRは、テスト画像とその拡散ベースの投影の間の知覚距離を計算し、異常を検出する。
拡張実験により、PRは生成モデルに基づく新規性検出手法の先行技術よりも有意なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-12-05T09:44:47Z) - Video Anomaly Detection via Spatio-Temporal Pseudo-Anomaly Generation : A Unified Approach [49.995833831087175]
本研究は,画像のマスキング領域にペンキを塗布することにより,汎用的な映像時間PAを生成する手法を提案する。
さらに,OCC設定下での現実世界の異常を検出するための単純な統合フレームワークを提案する。
提案手法は,OCC設定下での既存のPAs生成および再構築手法と同等に動作する。
論文 参考訳(メタデータ) (2023-11-27T13:14:06Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - ReAct: Out-of-distribution Detection With Rectified Activations [20.792140933660075]
オフ・オブ・ディストリビューション (OOD) 検出は, 実用的重要性から近年注目されている。
主な課題の1つは、モデルがしばしばOODデータに対して高い信頼性の予測を生成することである。
我々は,OODデータに対するモデル過信を低減するためのシンプルで効果的な手法であるReActを提案する。
論文 参考訳(メタデータ) (2021-11-24T21:02:07Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Interpreting Rate-Distortion of Variational Autoencoder and Using Model
Uncertainty for Anomaly Detection [5.491655566898372]
表現学習による教師なし異常検出のためのスケーラブルな機械学習システムを構築した。
本稿では,情報理論の観点からVAEを再考し,再構成誤差を用いた理論的基礎を提供する。
ベンチマークデータセットに対するアプローチの競合性能を実証的に示す。
論文 参考訳(メタデータ) (2020-05-05T00:03:48Z) - Unsupervised Lesion Detection via Image Restoration with a Normative
Prior [6.495883501989547]
本稿では,ネットワークをベースとした事前分布を規範分布とし,MAP推定を用いて画素単位で病変を検出する確率モデルを提案する。
脳MRIにおけるグリオーマと脳卒中病変の実験は、提案手法が最先端の教師なし手法よりかなり優れていることを示している。
論文 参考訳(メタデータ) (2020-04-30T18:03:18Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。