論文の概要: Why Normalizing Flows Fail to Detect Out-of-Distribution Data
- arxiv url: http://arxiv.org/abs/2006.08545v1
- Date: Mon, 15 Jun 2020 17:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:15:08.926121
- Title: Why Normalizing Flows Fail to Detect Out-of-Distribution Data
- Title(参考訳): 流れの正規化が分布外データの検出に失敗する理由
- Authors: Polina Kirichenko, Pavel Izmailov, Andrew Gordon Wilson
- Abstract要約: 正規化フローは、イン・オブ・ディストリビューションデータとアウト・オブ・ディストリビューションデータの区別に失敗する。
フローは局所的な画素相関と画像からラテンス空間への変換を学習する。
フロー結合層のアーキテクチャを変更することで、ターゲットデータのセマンティック構造を学ぶためのフローに偏りがあることが示される。
- 参考スコア(独自算出の注目度): 51.552870594221865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting out-of-distribution (OOD) data is crucial for robust machine
learning systems. Normalizing flows are flexible deep generative models that
often surprisingly fail to distinguish between in- and out-of-distribution
data: a flow trained on pictures of clothing assigns higher likelihood to
handwritten digits. We investigate why normalizing flows perform poorly for OOD
detection. We demonstrate that flows learn local pixel correlations and generic
image-to-latent-space transformations which are not specific to the target
image dataset. We show that by modifying the architecture of flow coupling
layers we can bias the flow towards learning the semantic structure of the
target data, improving OOD detection. Our investigation reveals that properties
that enable flows to generate high-fidelity images can have a detrimental
effect on OOD detection.
- Abstract(参考訳): 堅牢な機械学習システムでは、分散(ood)データの検出が不可欠である。
正規化フローはフレキシブルな深層生成モデルであり、しばしば分布内とアウト・オブ・ディストリビューションデータの区別に失敗する:衣服の写真で訓練されたフローは手書きの数字に高い確率を割り当てる。
OOD検出になぜ正規化フローが不十分かを検討する。
フローは,対象画像データセットに特有でない局所画素相関と一般画像-ラテント空間変換を学習する。
フロー結合層のアーキテクチャを変更することで,対象データのセマンティクス構造を学習し,ood検出を改善するために,フローをバイアスできることを示す。
本研究は,高忠実度画像の生成を可能にする特性がOOD検出に有害な影響があることを明らかにする。
関連論文リスト
- Can Your Generative Model Detect Out-of-Distribution Covariate Shift? [2.0144831048903566]
条件付き正規化フロー(cNFs)を用いたOODセンサデータ検出のための新しい手法を提案する。
CIFAR10 対 CIFAR10-C と ImageNet200 対 ImageNet200-C では,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-04T19:27:56Z) - Exploiting Diffusion Prior for Out-of-Distribution Detection [11.11093497717038]
堅牢な機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
拡散モデルの生成能力とCLIPの強力な特徴抽出能力を活用する新しいOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T23:55:25Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - InFlow: Robust outlier detection utilizing Normalizing Flows [7.309919829856283]
正規化フローは、敵攻撃を含むアウトリーチを確実に検出できることを示す。
本手法では, トレーニングに外部データを必要としないため, OOD検出の効率性を示す。
論文 参考訳(メタデータ) (2021-06-10T08:42:50Z) - Out-of-Distribution Detection of Melanoma using Normalizing Flows [0.0]
我々は,out-of-distribution (ood) 検出のためのデータ分散モデルの検討に集中する。
最先端のNFモデルであるGLOWを用いて,ISICデータセットにおけるOODサンプルの検出を試みる。
周波数成分の制御、異なるウェーブレットの使用、その他の最先端のNFアーキテクチャの使用など、改善のためのいくつかのアイデアを提案します。
論文 参考訳(メタデータ) (2021-03-23T16:47:19Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Same Same But DifferNet: Semi-Supervised Defect Detection with
Normalizing Flows [24.734388664558708]
畳み込みニューラルネットワークによって抽出された特徴の記述性を利用して、その密度を推定する。
これらの可能性に基づいて、欠陥を示すスコアリング関数を開発する。
本稿では,新しいMVTec ADとMagnetic Tile Defectsデータセットに対する既存のアプローチよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-08-28T10:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。