論文の概要: Towards Continual Visual Anomaly Detection in the Medical Domain
- arxiv url: http://arxiv.org/abs/2508.18013v1
- Date: Mon, 25 Aug 2025 13:28:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.794138
- Title: Towards Continual Visual Anomaly Detection in the Medical Domain
- Title(参考訳): 医科領域における連続的視覚異常検出に向けて
- Authors: Manuel Barusco, Francesco Borsatti, Nicola Beda, Davide Dalle Pezze, Gian Antonio Susto,
- Abstract要約: 視覚異常検出(VAD)は、異常画像を特定し、対応する異常領域を正確に特定する。
継続的学習(CL)は、以前獲得した知識を保持しながらモデルを段階的に適応するためのフレームワークを提供する。
本研究は、医療分野におけるCLシナリオにおけるVADモデルの適用について、初めて考察する。
- 参考スコア(独自算出の注目度): 11.262875405161417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Anomaly Detection (VAD) seeks to identify abnormal images and precisely localize the corresponding anomalous regions, relying solely on normal data during training. This approach has proven essential in domains such as manufacturing and, more recently, in the medical field, where accurate and explainable detection is critical. Despite its importance, the impact of evolving input data distributions over time has received limited attention, even though such changes can significantly degrade model performance. In particular, given the dynamic and evolving nature of medical imaging data, Continual Learning (CL) provides a natural and effective framework to incrementally adapt models while preserving previously acquired knowledge. This study explores for the first time the application of VAD models in a CL scenario for the medical field. In this work, we utilize a CL version of the well-established PatchCore model, called PatchCoreCL, and evaluate its performance using BMAD, a real-world medical imaging dataset with both image-level and pixel-level annotations. Our results demonstrate that PatchCoreCL is an effective solution, achieving performance comparable to the task-specific models, with a forgetting value less than a 1%, highlighting the feasibility and potential of CL for adaptive VAD in medical imaging.
- Abstract(参考訳): 視覚異常検出(VAD)は、トレーニング中の通常のデータにのみ依存して、異常画像を特定し、対応する異常領域を正確にローカライズする。
このアプローチは、製造などの領域や、より最近では、正確かつ説明可能な検出が重要である医療分野において不可欠であることが証明されている。
その重要性にもかかわらず、時間とともに入力データ分布が進化していく影響は、モデル性能を著しく低下させる可能性があるにもかかわらず、あまり注目されていない。
特に、医療画像データのダイナミックで進化的な性質を考えると、継続学習(CL)は、以前取得した知識を保ちながら、モデルを段階的に適応するための自然な、効果的なフレームワークを提供する。
本研究は、医療分野におけるCLシナリオにおけるVADモデルの適用について、初めて考察する。
本研究では,PatchCoreモデルのCLバージョンであるPatchCoreCLを使用し,画像レベルのアノテーションと画素レベルのアノテーションを併用した実世界の医療画像データセットであるBMADを用いて,その性能を評価する。
以上の結果から,PatchCoreCLはタスク固有モデルに匹敵する性能を達成し,1%以下で,医療画像における適応的VADの実現可能性と可能性を強調した。
関連論文リスト
- NEURAL: Attention-Guided Pruning for Unified Multimodal Resource-Constrained Clinical Evaluation [6.253771639590563]
NEURALは、医療画像データの保存と送信の課題に対処する新しいフレームワークである。
胸部X線構造解析に画像とX線所見の相互注意スコアを応用した。
NEURALは画像データサイズを93.4-97.7%削減し、診断性能は 0.88-0.95 AUC である。
論文 参考訳(メタデータ) (2025-08-13T11:08:09Z) - PRETI: Patient-Aware Retinal Foundation Model via Metadata-Guided Representation Learning [3.771396977579353]
PreTIは、メタデータ認識学習と堅牢な自己教師付き表現学習を統合した網膜基盤モデルである。
患者レベルのデータペアを構築し、同一人物の画像を関連付けることにより、非臨床的変動に対する堅牢性を向上させる。
実験では、PreTIは様々な疾患やバイオマーカー予測にまたがって最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2025-05-18T04:59:03Z) - Crane: Context-Guided Prompt Learning and Attention Refinement for Zero-Shot Anomaly Detection [50.343419243749054]
異常検出は、医学診断や工業的欠陥検出などの分野において重要である。
CLIPの粗粒化画像テキストアライメントは、微粒化異常に対する局所化と検出性能を制限する。
クレーンは最先端のZSADを2%から28%に改善し、画像レベルとピクセルレベルの両方で、推論速度では競争力を維持している。
論文 参考訳(メタデータ) (2025-04-15T10:42:25Z) - Text-guided Foundation Model Adaptation for Long-Tailed Medical Image Classification [4.6651139122498]
医学的文脈では、まれな疾患のラベルの少ない長いデータセットにおける不均衡なデータ分布は、ディープラーニングモデルの診断精度を著しく損なう。
最近のマルチモーダルテキスト画像管理基盤モデルは、効率的な表現学習を通じて、データの不足に対する新しい解決策を提供する。
長期医療画像分類のための新しいテキスト誘導基礎モデル適応法(TFA-LT)を提案する。
提案手法は27.1%の精度向上を実現し,本領域における基礎モデル適用の可能性を強調した。
論文 参考訳(メタデータ) (2024-08-27T04:18:18Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Enhancing and Adapting in the Clinic: Source-free Unsupervised Domain
Adaptation for Medical Image Enhancement [34.11633495477596]
ソースレス非教師なし領域適応医療画像強調法(SAME)を提案する。
構造化学習データからロバストなソースモデルを学習するために,まず構造保存強化ネットワークを構築した。
強化タスクの知識蒸留を促進するために擬似ラベルピッカーを開発した。
論文 参考訳(メタデータ) (2023-12-03T10:01:59Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。