論文の概要: The Invisible Gorilla Effect in Out-of-distribution Detection
- arxiv url: http://arxiv.org/abs/2602.20068v1
- Date: Mon, 23 Feb 2026 17:24:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.927656
- Title: The Invisible Gorilla Effect in Out-of-distribution Detection
- Title(参考訳): 分布外検出における可視ゴリラ効果
- Authors: Harry Anthony, Ziyun Liang, Hermione Warr, Konstantinos Kamnitsas,
- Abstract要約: ディープニューラルネットワークは、画像内の関心領域から特徴を学習することで、視覚タスクにおいて高いパフォーマンスを達成する。
しかし、それらのパフォーマンスは、トレーニングデータとは異なるアウト・オブ・ディストリビューション(OOD)データにデプロイすると低下する。
この課題は、信頼できない予測を識別し拒否することを目的としたOOD検出手法につながった。
- 参考スコア(独自算出の注目度): 3.315781165403964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks achieve high performance in vision tasks by learning features from regions of interest (ROI) within images, but their performance degrades when deployed on out-of-distribution (OOD) data that differs from training data. This challenge has led to OOD detection methods that aim to identify and reject unreliable predictions. Although prior work shows that OOD detection performance varies by artefact type, the underlying causes remain underexplored. To this end, we identify a previously unreported bias in OOD detection: for hard-to-detect artefacts (near-OOD), detection performance typically improves when the artefact shares visual similarity (e.g. colour) with the model's ROI and drops when it does not - a phenomenon we term the Invisible Gorilla Effect. For example, in a skin lesion classifier with red lesion ROI, we show the method Mahalanobis Score achieves a 31.5% higher AUROC when detecting OOD red ink (similar to ROI) compared to black ink (dissimilar) annotations. We annotated artefacts by colour in 11,355 images from three public datasets (e.g. ISIC) and generated colour-swapped counterfactuals to rule out dataset bias. We then evaluated 40 OOD methods across 7 benchmarks and found significant performance drops for most methods when artefacts differed from the ROI. Our findings highlight an overlooked failure mode in OOD detection and provide guidance for more robust detectors. Code and annotations are available at: https://github.com/HarryAnthony/Invisible_Gorilla_Effect.
- Abstract(参考訳): ディープニューラルネットワークは、画像内の関心領域(ROI)から特徴を学習することで、視覚タスクにおいて高いパフォーマンスを達成するが、トレーニングデータとは異なるアウト・オブ・ディストリビューション(OOD)データにデプロイすると、そのパフォーマンスは低下する。
この課題は、信頼できない予測を識別し拒否することを目的としたOOD検出手法につながった。
以前の研究では、OOD検出性能は人工物の種類によって異なるが、根本原因は未解明のままである。
この目的のために、我々はOOD検出の未報告バイアスを識別する: ハード・トゥ・ディテクト・アーティファクト(近傍OOD)では、アーティファクトがモデルのROIと視覚的類似性(eg色)を共有した場合には、検出性能が通常改善し、そうでなければドロップする - 目に見えないゴリラ効果(Invisible Gorilla Effect)と呼ぶ現象である。
例えば、赤い病変ROIの皮膚病変分類器では、マハラノビススコアは、黒インク(異種)アノテーションと比較して、OOD赤のインク(ROIと似ている)を検出する際に、AUROCを31.5%高める方法を示す。
我々は,3つの公開データセット(例えばISIC)から11,355枚の画像に,有色品を色分けし,有色品を合成し,データセットバイアスを除外した。
次に、7つのベンチマークで40のOODメソッドを評価し、ROIと異なるアーティファクトがある場合、ほとんどのメソッドで顕著なパフォーマンス低下が見つかりました。
以上の結果から,OOD検出の失敗モードが見落とされ,より堅牢な検出器のガイダンスが得られた。
コードとアノテーションは、https://github.com/HarryAnthony/Invisible_Gorilla_Effect.orgで入手できる。
関連論文リスト
- Going Beyond Conventional OOD Detection [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、重要なアプリケーションにディープラーニングモデルの安全なデプロイを保証するために重要である。
従来型OOD検出(ASCOOD)への統一的アプローチを提案する。
提案手法は, スパイラル相関の影響を効果的に軽減し, 微粒化特性の獲得を促す。
論文 参考訳(メタデータ) (2024-11-16T13:04:52Z) - Evaluating Reliability in Medical DNNs: A Critical Analysis of Feature and Confidence-Based OOD Detection [2.9049649065453336]
OOD検出方法は、信頼層(OOD検出のためにモデルの出力層を使用する)または機能層(出力層を使用しない)に分類することができる。
OODアーティファクトは、トレーニングデータと他の要因との相関関係から、モデルの予測におけるソフトマックスの信頼性を高めることができることを示す。
また、特徴に基づく手法は、通常、正しい予測と誤った予測につながる入力を区別する上で、より悪い性能を示すことを示す。
論文 参考訳(メタデータ) (2024-08-30T15:02:22Z) - Skeleton-OOD: An End-to-End Skeleton-Based Model for Robust Out-of-Distribution Human Action Detection [17.85872085904999]
そこで我々はSkeleton-OODと呼ばれる新しい骨格モデルを提案する。
Skeleton-OODは、ID認識の精度を確保しつつ、OODタスクの有効性を向上させる。
本研究は,骨格型行動認識タスクの文脈における従来のOOD検出技術の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-05-31T05:49:37Z) - Detecting Out-of-Distribution Objects through Class-Conditioned Inpainting [42.67743584239442]
現実のデプロイメントは、しばしば、out-of-distribution (OOD)オブジェクトと呼ばれる、新しく予期せぬオブジェクトを導入します。
現代の物体検出器は一般的に過信であり、その予測をOOD検出に単独で使用することは信用できない。
我々は,識別対象検出器と異なる目的関数で訓練された安定拡散のような,既製のテキスト・ツー・イメージ生成モデルを利用する。
論文 参考訳(メタデータ) (2024-02-05T18:50:27Z) - Unsupervised Evaluation of Out-of-distribution Detection: A Data-centric
Perspective [55.45202687256175]
アウト・オブ・ディストリビューション(OOD)検出法は、個々のテストサンプルがイン・ディストリビューション(IND)なのかOODなのかという、試験対象の真実を持っていると仮定する。
本稿では,OOD検出における教師なし評価問題を初めて紹介する。
我々は,OOD検出性能の教師なし指標としてGscoreを計算する3つの方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T13:34:35Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - GOOD-D: On Unsupervised Graph Out-Of-Distribution Detection [67.90365841083951]
我々は,OODグラフを検出するための新しいグラフコントラスト学習フレームワークGOOD-Dを開発した。
GOOD-Dは、潜在IDパターンをキャプチャし、異なる粒度のセマンティック不整合に基づいてOODグラフを正確に検出することができる。
教師なしグラフレベルのOOD検出における先駆的な研究として,提案手法と最先端手法を比較した総合的なベンチマークを構築した。
論文 参考訳(メタデータ) (2022-11-08T12:41:58Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - ATOM: Robustifying Out-of-distribution Detection Using Outlier Mining [51.19164318924997]
インフォメーション・アウトリエ・マイニングによるアドリアトレーニングは、OOD検出の堅牢性を向上させる。
ATOMは,古典的,敵対的なOOD評価タスクの幅広いファミリーの下で,最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-06-26T20:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。