論文の概要: MOODv2: Masked Image Modeling for Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2401.02611v1
- Date: Fri, 5 Jan 2024 02:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 16:05:13.105154
- Title: MOODv2: Masked Image Modeling for Out-of-Distribution Detection
- Title(参考訳): moodv2: 分散検出のためのマスク画像モデリング
- Authors: Jingyao Li, Pengguang Chen, Shaozuo Yu, Shu Liu, Jiaya Jia
- Abstract要約: 本研究は,様々なOODスコア関数を用いて,個別の事前学習課題について検討する。
当社のフレームワークMOODv2は,14.30%のAUROCをImageNetで95.68%に向上し,CIFAR-10で99.98%を達成した。
- 参考スコア(独自算出の注目度): 57.17163962383442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The crux of effective out-of-distribution (OOD) detection lies in acquiring a
robust in-distribution (ID) representation, distinct from OOD samples. While
previous methods predominantly leaned on recognition-based techniques for this
purpose, they often resulted in shortcut learning, lacking comprehensive
representations. In our study, we conducted a comprehensive analysis, exploring
distinct pretraining tasks and employing various OOD score functions. The
results highlight that the feature representations pre-trained through
reconstruction yield a notable enhancement and narrow the performance gap among
various score functions. This suggests that even simple score functions can
rival complex ones when leveraging reconstruction-based pretext tasks.
Reconstruction-based pretext tasks adapt well to various score functions. As
such, it holds promising potential for further expansion. Our OOD detection
framework, MOODv2, employs the masked image modeling pretext task. Without
bells and whistles, MOODv2 impressively enhances 14.30% AUROC to 95.68% on
ImageNet and achieves 99.98% on CIFAR-10.
- Abstract(参考訳): 効果的なアウト・オブ・ディストリビューション(OOD)検出の要点は、OODサンプルとは異なる堅牢なイン・ディストリビューション(ID)表現を取得することである。
従来の手法は認識に基づく手法に主に依存していたが、それらはしばしばショートカット学習をもたらし、包括的な表現が欠如していた。
本研究は総合的な分析を行い,個別の事前学習課題を探求し,様々なOODスコア関数を用いた。
その結果,再建によって事前訓練された特徴表現は,様々なスコア関数間の顕著な向上と性能ギャップを狭めることがわかった。
これは、単純なスコア関数であっても、レコンストラクションベースのプリテキストタスクを活用する場合、複雑な関数に匹敵する可能性があることを示唆している。
リコンストラクションベースのプリテキストタスクは、さまざまなスコア関数にうまく適合する。
そのため、さらなる拡大の可能性を秘めている。
OOD検出フレームワークMOODv2は、マスク付き画像モデリングプリテキストタスクを採用している。
ベルとホイッスルがなければ、MOODv2は14.30%のAUROCをImageNetで95.68%に向上し、CIFAR-10で99.98%を達成する。
関連論文リスト
- WeiPer: OOD Detection using Weight Perturbations of Class Projections [11.130659240045544]
入力のよりリッチな表現を生成する最終完全連結層にクラスプロジェクションの摂動を導入する。
我々はOpenOODフレームワークの複数のベンチマークで最先端のOOD検出結果を得る。
論文 参考訳(メタデータ) (2024-05-27T13:38:28Z) - Scaling for Training Time and Post-hoc Out-of-distribution Detection
Enhancement [41.650761556671775]
本稿では,最近の最先端のアウト・オブ・ディストリビューション(OOD)検出手法に関する知見と分析を行う。
我々は,活性化拡大がOOD検出に有害な影響を及ぼす一方で,活性化スケーリングが促進されることを実証した。
OpenOOD v1.5 ImageNet-1Kベンチマークで、AUROCスコアは、近OODでは+1.85%、遠OODデータセットでは+0.74%である。
論文 参考訳(メタデータ) (2023-09-30T02:10:54Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Improving Out-of-Distribution Detection with Disentangled Foreground and Background Features [23.266183020469065]
本稿では,IDトレーニングサンプルから前景と背景の特徴を密接な予測手法によって切り離す新しいフレームワークを提案する。
これは、様々な既存のOOD検出メソッドとシームレスに組み合わせられる汎用フレームワークである。
論文 参考訳(メタデータ) (2023-03-15T16:12:14Z) - Rethinking Out-of-distribution (OOD) Detection: Masked Image Modeling is
All You Need [52.88953913542445]
簡単な再構築手法を用いることで,OOD検出の性能が大幅に向上する可能性が示唆された。
我々は、OOD検出フレームワーク(MOOD)のプリテキストタスクとして、マスケ画像モデリング(Masked Image Modeling)を採用する。
論文 参考訳(メタデータ) (2023-02-06T08:24:41Z) - RankFeat: Rank-1 Feature Removal for Out-of-distribution Detection [65.67315418971688]
textttRankFeat は OOD 検出のためのシンプルだが効果的な textttpost hoc アプローチである。
textttRankFeatは、Emphstate-of-the-artパフォーマンスを実現し、以前のベストメソッドと比較して平均偽陽性率(FPR95)を17.90%削減する。
論文 参考訳(メタデータ) (2022-09-18T16:01:31Z) - A Simple Test-Time Method for Out-of-Distribution Detection [45.11199798139358]
本稿では,OOD検出のための簡易なテスト時間線形訓練法を提案する。
分布外である入力画像の確率は、ニューラルネットワークが抽出した特徴と驚くほど線形に相関していることがわかった。
本稿では,提案手法のオンライン版を提案し,実世界のアプリケーションでより実用的な性能を実現する。
論文 参考訳(メタデータ) (2022-07-17T16:02:58Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。