論文の概要: Dissolving Is Amplifying: Towards Fine-Grained Anomaly Detection
- arxiv url: http://arxiv.org/abs/2302.14696v3
- Date: Sat, 6 Jul 2024 23:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 05:42:28.629246
- Title: Dissolving Is Amplifying: Towards Fine-Grained Anomaly Detection
- Title(参考訳): 微粒な異常検出を目指す解法
- Authors: Jian Shi, Pengyi Zhang, Ni Zhang, Hakim Ghazzai, Peter Wonka,
- Abstract要約: DIAは医療画像の微細な異常検出フレームワークである。
生成拡散モデルを用いて拡散を専用特徴認識デノイザとして利用する。
第2に、医用画像の意味的に意味のある表現を学習するために、コントラスト学習に基づくテキスト増幅フレームワークを導入する。
- 参考スコア(独自算出の注目度): 43.03629006199897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical imaging often contains critical fine-grained features, such as tumors or hemorrhages, crucial for diagnosis yet potentially too subtle for detection with conventional methods. In this paper, we introduce \textit{DIA}, dissolving is amplifying. DIA is a fine-grained anomaly detection framework for medical images. First, we introduce \textit{dissolving transformations}. We employ diffusion with a generative diffusion model as a dedicated feature-aware denoiser. Applying diffusion to medical images in a certain manner can remove or diminish fine-grained discriminative features. Second, we introduce an \textit{amplifying framework} based on contrastive learning to learn a semantically meaningful representation of medical images in a self-supervised manner, with a focus on fine-grained features. The amplifying framework contrasts additional pairs of images with and without dissolving transformations applied and thereby emphasizes the dissolved fine-grained features. DIA significantly improves the medical anomaly detection performance with around 18.40\% AUC boost against the baseline method and achieves an overall SOTA against other benchmark methods. Our code is available at \url{https://github.com/shijianjian/DIA.git}.
- Abstract(参考訳): 医用画像は、しばしば腫瘍や出血などの重要な微細な特徴を含んでおり、診断には重要であるが、従来の方法では検出するには微妙すぎる可能性がある。
本稿では, 溶解が増幅される「textit{DIA}」を紹介する。
DIAは医療画像の微細な異常検出フレームワークである。
まず textit{dissolving transformations {\displaystyle \textit{dissolving transformations} を紹介する。
生成拡散モデルを用いて拡散を専用特徴認識デノイザとして利用する。
特定の方法で医用画像に拡散させることは、きめ細かい識別的特徴を除去または除去することができる。
第2に,医用画像の意味的に意味のある表現を自己監督的に学習するために,対照的な学習に基づく‘textit{amplifying framework’を導入する。
増幅フレームワークは、適用された変換を解消することなく追加画像の対を対比し、溶解した微細な特徴を強調する。
DIAは、AUCがベースライン法に対して約18.40 %向上し、医療異常検出性能を大幅に改善し、他のベンチマーク法に対して全体的なSOTAを達成する。
私たちのコードは \url{https://github.com/shijianjian/DIA.git} で利用可能です。
関連論文リスト
- Back-in-Time Diffusion: Unsupervised Detection of Medical Deepfakes [18.519422702285894]
拡散モデルに基づく医用画像のための新しい異常検出法を提案する。
モデルに疑似画像上の拡散を逆転させることにより、類似したプロセスを用いて合成内容を検出する方法を示す。
論文 参考訳(メタデータ) (2024-07-21T13:58:43Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Introducing Shape Prior Module in Diffusion Model for Medical Image
Segmentation [7.7545714516743045]
拡散確率モデル(DDPM)を利用したVerseDiff-UNetというエンドツーエンドフレームワークを提案する。
我々のアプローチは拡散モデルを標準のU字型アーキテクチャに統合する。
本手法はX線画像から得られた脊椎画像の1つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-12T03:05:00Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Chili Pepper Disease Diagnosis via Image Reconstruction Using GrabCut
and Generative Adversarial Serial Autoencoder [0.0]
疾患診断は異常検出の分野に属し、植物または果実が正常であるか異常であるかを識別することを目的としている。
画像生成性能の限界により、SOTAの手法は潜在ベクトル誤差を用いたスコア計算法を提案する。
本稿では,GAN構造を用いて有意義な画像を生成する手法を提案し,その3つの結果を1つの判別器で同時に分類する。
論文 参考訳(メタデータ) (2023-06-21T06:58:46Z) - Multi-domain stain normalization for digital pathology: A
cycle-consistent adversarial network for whole slide images [0.0]
本稿では,CycleGANに基づく染色正規化のためのマルチドメインアプローチであるMultiStain-CycleGANを提案する。
CycleGANの変更により、異なるモデルを再トレーニングしたり使用したりすることなく、異なる起源の画像の正規化が可能になります。
論文 参考訳(メタデータ) (2023-01-23T13:34:49Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - HealthyGAN: Learning from Unannotated Medical Images to Detect Anomalies
Associated with Human Disease [13.827062843105365]
現在の医療画像学における典型的な手法は、健康な被験者のみから診断モデルを導出することに集中している。
HealthyGANは、混合データセットから正常な画像のみに変換することを学習する。
1方向であるHealthyGANは、既存の未ペア画像から画像への変換方法のサイクル一貫性の要求を緩和する。
論文 参考訳(メタデータ) (2022-09-05T08:10:52Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - ElixirNet: Relation-aware Network Architecture Adaptation for Medical
Lesion Detection [90.13718478362337]
本稿では,1)TruncatedRPNが正負値と負値のバランスをとること,2)Auto-lesion Blockが自動的に医療画像にカスタマイズされ,地域提案間の関係認識操作が組み込まれること,3)Relation Transferモジュールが意味的関係を組み込むこと,の3つのコンポーネントを含む新しいElixirNetを紹介した。
DeepLesionとKits19の実験では、ElixirNetの有効性が証明され、パラメータが少なくてFPNよりも感度と精度が向上した。
論文 参考訳(メタデータ) (2020-03-03T05:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。