論文の概要: NOVA: A Benchmark for Anomaly Localization and Clinical Reasoning in Brain MRI
- arxiv url: http://arxiv.org/abs/2505.14064v1
- Date: Tue, 20 May 2025 08:10:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.878637
- Title: NOVA: A Benchmark for Anomaly Localization and Clinical Reasoning in Brain MRI
- Title(参考訳): NOVA : 脳MRIにおける異常局在と臨床推論のベンチマーク
- Authors: Cosmin I. Bercea, Jun Li, Philipp Raffler, Evamaria O. Riedel, Lena Schmitzer, Angela Kurz, Felix Bitzer, Paula Roßmüller, Julian Canisius, Mirjam L. Beyrle, Che Liu, Wenjia Bai, Bernhard Kainz, Julia A. Schnabel, Benedikt Wiestler,
- Abstract要約: 多くの現実世界のアプリケーションでは、デプロイされたモデルは、トレーニング中に見られるデータとは異なる入力に遭遇する。
私たちは、281の稀な病理と異質な取得プロトコルにまたがる、困難で現実的な900ドルの脳MRIスキャンである、NOVA$を提示します。
それぞれのケースには、豊富な臨床物語と、二重盲検の専門家境界ボックスアノテーションが含まれる。
NOVAはトレーニングに使用されないため、アウト・オブ・ディストリビューションの一般化において、$extreme$ stress-testとして機能する。
- 参考スコア(独自算出の注目度): 11.644236197583405
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In many real-world applications, deployed models encounter inputs that differ from the data seen during training. Out-of-distribution detection identifies whether an input stems from an unseen distribution, while open-world recognition flags such inputs to ensure the system remains robust as ever-emerging, previously $unknown$ categories appear and must be addressed without retraining. Foundation and vision-language models are pre-trained on large and diverse datasets with the expectation of broad generalization across domains, including medical imaging. However, benchmarking these models on test sets with only a few common outlier types silently collapses the evaluation back to a closed-set problem, masking failures on rare or truly novel conditions encountered in clinical use. We therefore present $NOVA$, a challenging, real-life $evaluation-only$ benchmark of $\sim$900 brain MRI scans that span 281 rare pathologies and heterogeneous acquisition protocols. Each case includes rich clinical narratives and double-blinded expert bounding-box annotations. Together, these enable joint assessment of anomaly localisation, visual captioning, and diagnostic reasoning. Because NOVA is never used for training, it serves as an $extreme$ stress-test of out-of-distribution generalisation: models must bridge a distribution gap both in sample appearance and in semantic space. Baseline results with leading vision-language models (GPT-4o, Gemini 2.0 Flash, and Qwen2.5-VL-72B) reveal substantial performance drops across all tasks, establishing NOVA as a rigorous testbed for advancing models that can detect, localize, and reason about truly unknown anomalies.
- Abstract(参考訳): 多くの実世界のアプリケーションでは、デプロイされたモデルは、トレーニング中に見られるデータとは異なる入力に遭遇する。
アウト・オブ・ディストリビューション検出(Out-of-distribution detection)は、入力が目に見えない分布に由来するかどうかを識別する一方で、オープンワールドの認識フラグは、システムが常に堅牢であることを保証するためにそのような入力を出力する。
ファンデーションモデルとビジョン言語モデルは、医療画像を含む領域にまたがる広範な一般化を期待して、大規模で多様なデータセットで事前訓練されている。
しかし、いくつかの一般的な外れ値型しか持たないテストセットでこれらのモデルをベンチマークすることは、臨床で遭遇した稀な、あるいは真に新しい状況における障害を隠蔽する、クローズドセットの問題に静かに評価を崩壊させる。
そこで私たちは,281の稀な病理と異質な取得プロトコルにまたがる,$$\sim$900の脳MRIスキャンのベンチマークである$NOVA$を提示した。
それぞれのケースには、豊富な臨床物語と、二重盲検の専門家境界ボックスアノテーションが含まれる。
これらを組み合わせることで、異常な局所化、視覚的キャプション、診断的推論を共同で評価することができる。
NOVAはトレーニングに使用されないため、モデルがサンプルの外観とセマンティック空間の両方で分配ギャップを橋渡ししなければならない、アウト・オブ・ディストリビューションの一般化のエクストリーム・テストとして$extreme$として機能する。
主要な視覚言語モデル(GPT-4o、Gemini 2.0 Flash、Qwen2.5-VL-72B)によるベースラインの結果は、すべてのタスクで大幅なパフォーマンス低下を示し、NOVAを真に未知の異常を検出し、ローカライズし、推論するモデルの厳密なテストベッドとして確立した。
関連論文リスト
- Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [88.34095233600719]
FAPromptは、より正確なZSADのためにきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
画像レベルおよび画素レベルのZSADタスクにおいて、最先端の手法を少なくとも3%-5%のAUC/APで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Toward Generalist Anomaly Detection via In-context Residual Learning with Few-shot Sample Prompts [25.629973843455495]
Generalist Anomaly Detection (GAD)は、ターゲットデータにさらなるトレーニングを加えることなく、さまざまなアプリケーションドメインからさまざまなデータセットの異常を検出するために一般化可能な、単一の検出モデルをトレーニングすることを目的としている。
InCTRLと呼ばれるGADのための文脈内残差学習モデルを学習する新しい手法を提案する。
InCTRLは最高のパフォーマーであり、最先端の競合手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-03-11T08:07:46Z) - Rescuing referral failures during automated diagnosis of domain-shifted
medical images [17.349847762608086]
異なる人口層から取得した医療画像や、別の技術を用いて測定した場合、最先端の領域一般化アプローチでさえ、参照中に深刻な失敗を犯すことが示される。
我々は,これらの障害を解消し,大幅な性能向上を実現する,ロバストな一般化とポストホック参照アプローチの新たな組み合わせを評価する。
論文 参考訳(メタデータ) (2023-11-28T13:14:55Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Dual-distribution discrepancy with self-supervised refinement for
anomaly detection in medical images [29.57501199670898]
我々は、既知の正規画像と未ラベル画像を利用するために、一級半教師付き学習(OC-SSL)を導入する。
再構成ネットワークのアンサンブルは、正規画像の分布と、正規画像と未ラベル画像の両方の分布をモデル化するように設計されている。
本稿では,異常を直接検出するのではなく,異常スコアを改良する自己教師型学習の新しい視点を提案する。
論文 参考訳(メタデータ) (2022-10-09T11:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。