論文の概要: Interpretable Out-Of-Distribution Detection Using Pattern Identification
- arxiv url: http://arxiv.org/abs/2302.10303v1
- Date: Tue, 24 Jan 2023 15:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 14:17:18.006538
- Title: Interpretable Out-Of-Distribution Detection Using Pattern Identification
- Title(参考訳): パターン識別を用いた解釈可能な分布外検出
- Authors: Romain Xu-Darme (LSL, MRIM ), Julien Girard-Satabin (LSL), Darryl
Hond, Gabriele Incorvaia, Zakaria Chihani (LSL)
- Abstract要約: データベースプログラムのアウト・オブ・ディストリビューション(OoD)検出は最重要課題である。
文献における一般的なアプローチは、イン・オブ・ディストリビューション(in-distriion、IoD)とOoDバリデーション・サンプルを必要とする検出器を訓練する傾向がある。
我々は、より解釈可能で堅牢なOoD検出器を構築するために、説明可能なAI、すなわちPartialulパターン識別アルゴリズムから既存の研究を活用することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OoD) detection for data-based programs is a goal of
paramount importance. Common approaches in the literature tend to train
detectors requiring inside-of-distribution (in-distribution, or IoD) and OoD
validation samples, and/or implement confidence metrics that are often abstract
and therefore difficult to interpret. In this work, we propose to use existing
work from the field of explainable AI, namely the PARTICUL pattern
identification algorithm, in order to build more interpretable and robust OoD
detectors for visual classifiers. Crucially, this approach does not require to
retrain the classifier and is tuned directly to the IoD dataset, making it
applicable to domains where OoD does not have a clear definition. Moreover,
pattern identification allows us to provide images from the IoD dataset as
reference points to better explain the confidence scores. We demonstrates that
the detection capabilities of this approach are on par with existing methods
through an extensive benchmark across four datasets and two definitions of OoD.
In particular, we introduce a new benchmark based on perturbations of the IoD
dataset which provides a known and quantifiable evaluation of the discrepancy
between the IoD and OoD datasets that serves as a reference value for the
comparison between various OoD detection methods. Our experiments show that the
robustness of all metrics under test does not solely depend on the nature of
the IoD dataset or the OoD definition, but also on the architecture of the
classifier, which stresses the need for thorough experimentations for future
work on OoD detection.
- Abstract(参考訳): データベースプログラムのアウト・オブ・ディストリビューション(ood)検出は、最も重要な目標である。
文献における一般的なアプローチは、分布内(分布内、iod)とood検証サンプルを必要とする検出器を訓練し、しばしば抽象的で解釈が難しい信頼度メトリクスを実装する傾向がある。
本研究では、視覚分類器のためのより解釈可能で堅牢なOoD検出器を構築するために、説明可能なAI、すなわちPartialICULパターン識別アルゴリズムから既存の研究を活用することを提案する。
重要なことは、このアプローチは分類器を再訓練する必要はなく、IoDデータセットに直接チューニングされるため、OoDが明確な定義を持っていないドメインに適用できる。
さらに、パターン識別により、iodデータセットからのイメージを参照ポイントとして提供し、信頼性スコアをよりよく説明できる。
このアプローチの検出能力は,4つのデータセットと2つのOoD定義の広範なベンチマークを通じて,既存のメソッドと同等であることを示す。
特に、IoDデータセットの摂動に基づく新しいベンチマークを導入し、様々なOoD検出方法の比較の基準値として機能する、IoDデータセットとOoDデータセットの相違点の既知の定量的評価を提供する。
実験の結果,テスト対象のすべての指標の堅牢性は,IoDデータセットやOoD定義の性質にのみ依存するだけでなく,分類器のアーキテクチャにも依存することがわかった。
関連論文リスト
- On the Inherent Robustness of One-Stage Object Detection against Out-of-Distribution Data [6.7236795813629]
画像データ中の未知物体を検出する新しい検出アルゴリズムを提案する。
モデルによって抽出された特徴に対する次元の呪いの影響を軽減するために、教師付き次元削減技術を利用する。
これは高解像度の特徴マップを用いて、教師なしの方法で潜在的に未知の物体を識別する。
論文 参考訳(メタデータ) (2024-11-07T10:15:25Z) - Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - Contextualised Out-of-Distribution Detection using Pattern Identication [0.0]
CODEは、説明可能なAIの分野からの既存の作業の拡張である。
クラス固有の繰り返しパターンを特定して、堅牢なOut-of-Distribution(OoD)検出方法を構築する。
論文 参考訳(メタデータ) (2023-10-24T07:55:09Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - How to Evaluate the Generalization of Detection? A Benchmark for
Comprehensive Open-Vocabulary Detection [25.506346503624894]
我々は,9つのサブタスクを含むOVDEvalという新しいベンチマークを提案し,コモンセンス知識の評価を導入する。
データセットは、モデルによる視覚的および言語的入力の真の理解に挑戦する強烈なネガティブを提供するために、慎重に作成されます。
論文 参考訳(メタデータ) (2023-08-25T04:54:32Z) - Raising the Bar on the Evaluation of Out-of-Distribution Detection [88.70479625837152]
我々は、知覚/視覚的・意味的類似性の概念をiDデータと微妙に異なる概念を用いて、OoDデータの2つのカテゴリを定義した。
iD データセットが与えられた2つのカテゴリそれぞれから OoD サンプルを生成するための GAN ベースのフレームワークを提案する。
従来のベンチマークで非常によく機能する最先端のOoD検出手法は,提案したベンチマークよりもはるかに堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-24T08:48:36Z) - Learning by Erasing: Conditional Entropy based Transferable Out-Of-Distribution Detection [17.31471594748061]
トレーニングとテストシナリオ間の分散シフトを処理するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
既存の方法は、データセット固有の特徴表現やデータ分散をキャプチャするために、再トレーニングを必要とする。
我々は,新しいIDデータセットで再トレーニングする必要がない,DGMに基づく転送可能なOOD検出手法を提案する。
論文 参考訳(メタデータ) (2022-04-23T10:19:58Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - NADS: Neural Architecture Distribution Search for Uncertainty Awareness [79.18710225716791]
機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:39:07Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。