論文の概要: Dissolving Is Amplifying: Towards Fine-Grained Anomaly Detection
- arxiv url: http://arxiv.org/abs/2302.14696v2
- Date: Fri, 15 Dec 2023 22:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 02:50:34.856808
- Title: Dissolving Is Amplifying: Towards Fine-Grained Anomaly Detection
- Title(参考訳): 溶解は増幅する:細粒度異常検出に向けて
- Authors: Jian Shi, Pengyi Zhang, Ni Zhang, Hakim Ghazzai, Peter Wonka
- Abstract要約: 生成拡散モデルは特徴を意識し、特定の方法で医療画像に適用することで、腫瘍や出血などの微細な識別特性を除去または低減することができる。
本稿では,医用画像の意味的に意味のある表現を自己指導的に学習するための,コントラスト学習に基づくテキスト増幅フレームワークを提案する。
DIAは、ベースライン法に対して約18.40%のAUCで医療異常検出性能を著しく改善し、他のベンチマーク法に対して全体的なSOTAを達成する。
- 参考スコア(独自算出の注目度): 46.171309673071256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce \textit{DIA}, dissolving is amplifying. DIA is a
fine-grained anomaly detection framework for medical images. We describe two
novel components in the paper. First, we introduce \textit{dissolving
transformations}. Our main observation is that generative diffusion models are
feature-aware and applying them to medical images in a certain manner can
remove or diminish fine-grained discriminative features such as tumors or
hemorrhaging. Second, we introduce an \textit{amplifying framework} based on
contrastive learning to learn a semantically meaningful representation of
medical images in a self-supervised manner. The amplifying framework contrasts
additional pairs of images with and without dissolving transformations applied
and thereby boosts the learning of fine-grained feature representations. DIA
significantly improves the medical anomaly detection performance with around
18.40\% AUC boost against the baseline method and achieves an overall SOTA
against other benchmark methods. Our code is available at
\url{https://github.com/shijianjian/DIA.git}
- Abstract(参考訳): 本稿では, 溶解が増幅される「textit{DIA}」を紹介する。
DIAは医療画像の微細な異常検出フレームワークである。
本論文では2つの新しい要素について述べる。
まず、 \textit{dissolving transformations} を導入する。
我々は,生成拡散モデルが特徴量認識であり,それを医用画像に適用することで,腫瘍や出血などの細粒度の識別的特徴を除去あるいは減少させることができることを主に観察した。
次に,医療画像の意味的に意味のある表現を自己教師ありで学習するために,コントラスト学習に基づく \textit{amplifying framework} を導入する。
増幅フレームワークは、適用された変換を解消することなく追加画像対を対比することにより、きめ細かい特徴表現の学習を促進する。
DIAは、AUCがベースライン法に対して約18.40倍の精度で医療異常検出性能を向上し、他のベンチマーク法に対して全体的なSOTAを達成する。
我々のコードは \url{https://github.com/shijianjian/DIA.git} で入手できる。
関連論文リスト
- Back-in-Time Diffusion: Unsupervised Detection of Medical Deepfakes [3.2720947374803777]
拡散モデルに基づく医用画像のための新しい異常検出法を提案する。
モデルに疑似画像上の拡散を逆転させることにより、類似したプロセスを用いて合成内容を検出する方法を示す。
本手法は非監視検出器の他の状態よりも有意に優れており,AUCは0.79から0.9、除去用0.91から0.96から0.9に増加した。
論文 参考訳(メタデータ) (2024-07-21T13:58:43Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Introducing Shape Prior Module in Diffusion Model for Medical Image
Segmentation [7.7545714516743045]
拡散確率モデル(DDPM)を利用したVerseDiff-UNetというエンドツーエンドフレームワークを提案する。
我々のアプローチは拡散モデルを標準のU字型アーキテクチャに統合する。
本手法はX線画像から得られた脊椎画像の1つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-12T03:05:00Z) - Chili Pepper Disease Diagnosis via Image Reconstruction Using GrabCut
and Generative Adversarial Serial Autoencoder [0.0]
疾患診断は異常検出の分野に属し、植物または果実が正常であるか異常であるかを識別することを目的としている。
画像生成性能の限界により、SOTAの手法は潜在ベクトル誤差を用いたスコア計算法を提案する。
本稿では,GAN構造を用いて有意義な画像を生成する手法を提案し,その3つの結果を1つの判別器で同時に分類する。
論文 参考訳(メタデータ) (2023-06-21T06:58:46Z) - Multi-domain stain normalization for digital pathology: A
cycle-consistent adversarial network for whole slide images [0.0]
本稿では,CycleGANに基づく染色正規化のためのマルチドメインアプローチであるMultiStain-CycleGANを提案する。
CycleGANの変更により、異なるモデルを再トレーニングしたり使用したりすることなく、異なる起源の画像の正規化が可能になります。
論文 参考訳(メタデータ) (2023-01-23T13:34:49Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - HealthyGAN: Learning from Unannotated Medical Images to Detect Anomalies
Associated with Human Disease [13.827062843105365]
現在の医療画像学における典型的な手法は、健康な被験者のみから診断モデルを導出することに集中している。
HealthyGANは、混合データセットから正常な画像のみに変換することを学習する。
1方向であるHealthyGANは、既存の未ペア画像から画像への変換方法のサイクル一貫性の要求を緩和する。
論文 参考訳(メタデータ) (2022-09-05T08:10:52Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - ElixirNet: Relation-aware Network Architecture Adaptation for Medical
Lesion Detection [90.13718478362337]
本稿では,1)TruncatedRPNが正負値と負値のバランスをとること,2)Auto-lesion Blockが自動的に医療画像にカスタマイズされ,地域提案間の関係認識操作が組み込まれること,3)Relation Transferモジュールが意味的関係を組み込むこと,の3つのコンポーネントを含む新しいElixirNetを紹介した。
DeepLesionとKits19の実験では、ElixirNetの有効性が証明され、パラメータが少なくてFPNよりも感度と精度が向上した。
論文 参考訳(メタデータ) (2020-03-03T05:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。