論文の概要: Scale-Aware Contrastive Reverse Distillation for Unsupervised Medical Anomaly Detection
- arxiv url: http://arxiv.org/abs/2503.13828v1
- Date: Tue, 18 Mar 2025 02:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:16:13.860857
- Title: Scale-Aware Contrastive Reverse Distillation for Unsupervised Medical Anomaly Detection
- Title(参考訳): 非監督的医学的異常検出のためのスケールアウェアコントラスト逆蒸留法
- Authors: Chunlei Li, Yilei Shi, Jingliang Hu, Xiao Xiang Zhu, Lichao Mou,
- Abstract要約: 教師なし異常検出は、その広範囲な適用性から、大きな研究の注目を集めている。
近年の手法では, メモリバンク, 正規化フロー, 自己指導型学習, 知識蒸留など様々な手法が検討されている。
本稿では,既存の逆蒸留法の2つの重要な限界に対処する,新しいスケール対応逆蒸留モデルを提案する。
- 参考スコア(独自算出の注目度): 21.398968141561095
- License:
- Abstract: Unsupervised anomaly detection using deep learning has garnered significant research attention due to its broad applicability, particularly in medical imaging where labeled anomalous data are scarce. While earlier approaches leverage generative models like autoencoders and generative adversarial networks (GANs), they often fall short due to overgeneralization. Recent methods explore various strategies, including memory banks, normalizing flows, self-supervised learning, and knowledge distillation, to enhance discrimination. Among these, knowledge distillation, particularly reverse distillation, has shown promise. Following this paradigm, we propose a novel scale-aware contrastive reverse distillation model that addresses two key limitations of existing reverse distillation methods: insufficient feature discriminability and inability to handle anomaly scale variations. Specifically, we introduce a contrastive student-teacher learning approach to derive more discriminative representations by generating and exploring out-of-normal distributions. Further, we design a scale adaptation mechanism to softly weight contrastive distillation losses at different scales to account for the scale variation issue. Extensive experiments on benchmark datasets demonstrate state-of-the-art performance, validating the efficacy of the proposed method. Code is available at https://github.com/MedAITech/SCRD4AD.
- Abstract(参考訳): ディープラーニングを用いた教師なし異常検出は、その広範囲な適用性、特にラベル付き異常データが不足している医療画像において、重要な研究の注目を集めている。
初期のアプローチでは、オートエンコーダやGAN(Generative Adversarial Network)のような生成モデルを利用していたが、過度な一般化のためにしばしば不足する。
近年, メモリバンク, フローの正規化, 自己指導型学習, 知識蒸留など, 様々な手法を探求し, 差別を強めている。
これらのうち、知識蒸留、特に逆蒸留は、有望であることを示している。
本稿では, 従来の逆蒸留方式の2つの重要な限界, 特徴識別能力の欠如, 異常スケールのばらつきに対処できない, に対処する新しいスケールアウェア・コントラスト逆蒸留モデルを提案する。
具体的には、正規分布の生成と探索により、より差別的な表現を導き出すために、対照的な学生-教師の学習アプローチを導入する。
さらに,異なるスケールでの相対蒸留損失をソフトに重み付けするスケール適応機構を設計し,スケール変動問題を考慮した。
ベンチマークデータセットの大規模な実験は、最先端の性能を示し、提案手法の有効性を検証する。
コードはhttps://github.com/MedAITech/SCRD4ADで入手できる。
関連論文リスト
- Multi-Granularity Semantic Revision for Large Language Model Distillation [66.03746866578274]
LLM蒸留における多粒性セマンティックリビジョン法を提案する。
シーケンスレベルでは、シーケンス修正と再生戦略を提案する。
トークンレベルでは、蒸留目的関数として、Kulback-Leibler損失を補正する分布適応クリッピングを設計する。
スパンレベルでは、シーケンスのスパン前処理を利用して、スパン内の確率相関を計算し、教師と学生の確率相関を一貫性に制約する。
論文 参考訳(メタデータ) (2024-07-14T03:51:49Z) - Enhancing Multi-Class Anomaly Detection via Diffusion Refinement with Dual Conditioning [30.4548093767138]
一モデル毎の手法は、しばしば限定的な一般化能力に苦しむ。
近年の1モデルオールカテゴリ方式の特徴再構築手法は, 異常サンプルの再構成やぼやけた再構築といった課題に直面している。
本稿では,多クラス異常検出のための拡散モデルと変圧器を創造的に組み合わせる。
論文 参考訳(メタデータ) (2024-07-02T03:09:40Z) - AnomalyDiffusion: Few-Shot Anomaly Image Generation with Diffusion Model [59.08735812631131]
製造業において異常検査が重要な役割を担っている。
既存の異常検査手法は、異常データが不足しているため、その性能に制限がある。
本稿では,新しい拡散型マイクロショット異常生成モデルであるAnomalyDiffusionを提案する。
論文 参考訳(メタデータ) (2023-12-10T05:13:40Z) - CL-Flow:Strengthening the Normalizing Flows by Contrastive Learning for
Better Anomaly Detection [1.951082473090397]
コントラスト学習と2D-Flowを組み合わせた自己教師付き異常検出手法を提案する。
本手法は,主流の教師なし手法と比較して,検出精度が向上し,モデルパラメータが減少し,推論速度が向上することを示す。
BTADデータセットでは,MVTecADデータセットでは画像レベルのAUROCが99.6%,BTADデータセットでは画像レベルのAUROCが96.8%であった。
論文 参考訳(メタデータ) (2023-11-12T10:07:03Z) - Knowledge Distillation for Anomaly Detection [1.864421043173559]
本稿では,非教師付き異常検出モデルから教師付きデプロイ可能なモデルに圧縮する新しい手法を提案する。
検出感度を向上させるための一連の手法を提案する。
論文 参考訳(メタデータ) (2023-10-09T18:02:38Z) - SaliencyCut: Augmenting Plausible Anomalies for Anomaly Detection [24.43321988051129]
そこで本稿では,SaliencyCutという新たなデータ拡張手法を提案する。
次に、各サンプルから微細な異常特徴を抽出し評価するために、異常学習ヘッドにパッチワイド残余モジュールを新規に設計する。
論文 参考訳(メタデータ) (2023-06-14T08:55:36Z) - Self-Knowledge Distillation via Dropout [0.7883397954991659]
ドロップアウト(SD-Dropout)を用いた簡便かつ効果的な自己知識蒸留法を提案する。
我々の方法は、追加のトレーニング可能なモジュールを必要とせず、データに依存しず、単純な操作しか必要としない。
論文 参考訳(メタデータ) (2022-08-11T05:08:55Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。