論文の概要: Can Your Generative Model Detect Out-of-Distribution Covariate Shift?
- arxiv url: http://arxiv.org/abs/2409.03043v2
- Date: Wed, 9 Oct 2024 15:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 23:23:02.600722
- Title: Can Your Generative Model Detect Out-of-Distribution Covariate Shift?
- Title(参考訳): 生成モデルは分配外変量シフトを検出できるか?
- Authors: Christiaan Viviers, Amaan Valiuddin, Francisco Caetano, Lemar Abdi, Lena Filatova, Peter de With, Fons van der Sommen,
- Abstract要約: 条件付き正規化フロー(cNFs)を用いたOODセンサデータ検出のための新しい手法を提案する。
CIFAR10 対 CIFAR10-C と ImageNet200 対 ImageNet200-C では,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 2.0144831048903566
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Detecting Out-of-Distribution (OOD) sensory data and covariate distribution shift aims to identify new test examples with different high-level image statistics to the captured, normal and In-Distribution (ID) set. Existing OOD detection literature largely focuses on semantic shift with little-to-no consensus over covariate shift. Generative models capture the ID data in an unsupervised manner, enabling them to effectively identify samples that deviate significantly from this learned distribution, irrespective of the downstream task. In this work, we elucidate the ability of generative models to detect and quantify domain-specific covariate shift through extensive analyses that involves a variety of models. To this end, we conjecture that it is sufficient to detect most occurring sensory faults (anomalies and deviations in global signals statistics) by solely modeling high-frequency signal-dependent and independent details. We propose a novel method, CovariateFlow, for OOD detection, specifically tailored to covariate heteroscedastic high-frequency image-components using conditional Normalizing Flows (cNFs). Our results on CIFAR10 vs. CIFAR10-C and ImageNet200 vs. ImageNet200-C demonstrate the effectiveness of the method by accurately detecting OOD covariate shift. This work contributes to enhancing the fidelity of imaging systems and aiding machine learning models in OOD detection in the presence of covariate shift.
- Abstract(参考訳): OOD(Out-of-Distribution)知覚データの検出と共変量分布シフトは、キャプチャー、正規およびIn-Distribution(ID)セットに異なる高レベル画像統計を持つ新しいテスト例を特定することを目的としている。
既存のOOD検出文献は、共変量シフトに対するコンセンサスをほとんど含まないセマンティックシフトに重点を置いている。
生成モデルは教師なしの方法でIDデータをキャプチャし、下流のタスクに関係なく、この学習された分布から著しく逸脱したサンプルを効果的に識別する。
本研究では,多種多様なモデルを含む広範囲な解析を通じて,生成モデルがドメイン固有の共変量シフトを検出し,定量化する能力を明らかにする。
この結果から,高頻度信号依存および独立性の詳細のみをモデル化することで,発生頻度の高い感覚障害(大域信号統計における異常や偏差)を検出することができると推測した。
条件付き正規化フロー(cNFs)を用いた異方性高周波数画像成分の共変処理に適したOOD検出のための新しい手法であるCovariateFlowを提案する。
CIFAR10 対 CIFAR10-C と ImageNet200 対 ImageNet200-C では,OOD 共変量シフトを正確に検出し,本手法の有効性を示した。
この研究は、共変量シフトの存在下でのOOD検出において、イメージングシステムの忠実性の向上と機械学習モデルの支援に寄与する。
関連論文リスト
- Going Beyond Conventional OOD Detection [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、重要なアプリケーションにディープラーニングモデルの安全なデプロイを保証するために重要である。
従来型OOD検出(ASCOOD)への統一的アプローチを提案する。
提案手法は, スパイラル相関の影響を効果的に軽減し, 微粒化特性の獲得を促す。
論文 参考訳(メタデータ) (2024-11-16T13:04:52Z) - Perturb-and-Compare Approach for Detecting Out-of-Distribution Samples in Constrained Access Environments [20.554546406575]
我々は,モデルのパラメータやアクティベーションがエンドユーザにアクセスできない場合でも適用可能なOOD検出フレームワークであるMixDiffを提案する。
モデルからの過信出力を誘導するOODサンプルの識別におけるMixDiffの有効性について理論的解析を行った。
論文 参考訳(メタデータ) (2024-08-19T15:51:31Z) - Exploiting Diffusion Prior for Out-of-Distribution Detection [11.11093497717038]
堅牢な機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
拡散モデルの生成能力とCLIPの強力な特徴抽出能力を活用する新しいOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T23:55:25Z) - Out-of-Distribution Detection with a Single Unconditional Diffusion Model [54.15132801131365]
アウト・オブ・ディストリビューション(OOD)検出は、異常サンプルを特定しようとする機械学習において重要なタスクである。
従来、教師なし手法はOOD検出に深い生成モデルを用いていた。
本稿では,単一モデルが多様なタスクに対してOOD検出を行うことができるかどうかを考察する。
論文 参考訳(メタデータ) (2024-05-20T08:54:03Z) - DiffGuard: Semantic Mismatch-Guided Out-of-Distribution Detection using
Pre-trained Diffusion Models [25.58447344260747]
我々はDiffGuardという名前のセマンティックミスマッチ誘導OOD検出に事前学習拡散モデルを用いている。
実験により、DiffGuardはCifar-10と大規模ImageNetのハードケースの両方で有効であることが示された。
既存のOOD検出技術と簡単に組み合わせて、最先端のOOD検出結果が得られる。
論文 参考訳(メタデータ) (2023-08-15T10:37:04Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Exploring Covariate and Concept Shift for Detection and Calibration of
Out-of-Distribution Data [77.27338842609153]
キャラクタリゼーションにより、OODデータの検出と信頼性校正には、それぞれのシフトに対する感度が重要であることが明らかになった。
分布内データのみを用いて両シフトでのOOD検出を改善するために,幾何学的に着想を得た手法を提案する。
我々は,OOD検出とキャリブレーションの両面で,異なるタイプのシフトの下でうまく機能する手法を最初に提案する。
論文 参考訳(メタデータ) (2021-10-28T15:42:55Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Why Normalizing Flows Fail to Detect Out-of-Distribution Data [51.552870594221865]
正規化フローは、イン・オブ・ディストリビューションデータとアウト・オブ・ディストリビューションデータの区別に失敗する。
フローは局所的な画素相関と画像からラテンス空間への変換を学習する。
フロー結合層のアーキテクチャを変更することで、ターゲットデータのセマンティック構造を学ぶためのフローに偏りがあることが示される。
論文 参考訳(メタデータ) (2020-06-15T17:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。