論文の概要: Self-Attention Diffusion Models for Zero-Shot Biomedical Image Segmentation: Unlocking New Frontiers in Medical Imaging
- arxiv url: http://arxiv.org/abs/2503.18170v1
- Date: Sun, 23 Mar 2025 18:47:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 16:32:17.022954
- Title: Self-Attention Diffusion Models for Zero-Shot Biomedical Image Segmentation: Unlocking New Frontiers in Medical Imaging
- Title(参考訳): ゼロショットバイオメディカルイメージセグメンテーションのための自己注意拡散モデル:医療画像の新しいフロンティアを解き放つ
- Authors: Abderrachid Hamrani, Anuradha Godavarty,
- Abstract要約: 本稿では,ゼロショットバイオメディカルイメージセグメンテーションのための新しいアプローチであるDiffusion Attention Zero-shot Unsupervised System (ADZUS)を紹介する。
ADZUSは事前に訓練された拡散モデルの本質的な能力を生かし、その生成的および識別的ポテンシャルを利用して医用画像の分割を行う。
皮膚病変のセグメンテーション、胸部X線感染症のセグメンテーション、白血球セグメンテーションなど、さまざまな医療画像データセットにわたる実験結果から、ADZUSが最先端のパフォーマンスを達成することが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Producing high-quality segmentation masks for medical images is a fundamental challenge in biomedical image analysis. Recent research has explored large-scale supervised training to enable segmentation across various medical imaging modalities and unsupervised training to facilitate segmentation without dense annotations. However, constructing a model capable of segmenting diverse medical images in a zero-shot manner without any annotations remains a significant hurdle. This paper introduces the Attention Diffusion Zero-shot Unsupervised System (ADZUS), a novel approach that leverages self-attention diffusion models for zero-shot biomedical image segmentation. ADZUS harnesses the intrinsic capabilities of pre-trained diffusion models, utilizing their generative and discriminative potentials to segment medical images without requiring annotated training data or prior domain-specific knowledge. The ADZUS architecture is detailed, with its integration of self-attention mechanisms that facilitate context-aware and detail-sensitive segmentations being highlighted. Experimental results across various medical imaging datasets, including skin lesion segmentation, chest X-ray infection segmentation, and white blood cell segmentation, reveal that ADZUS achieves state-of-the-art performance. Notably, ADZUS reached Dice scores ranging from 88.7\% to 92.9\% and IoU scores from 66.3\% to 93.3\% across different segmentation tasks, demonstrating significant improvements in handling novel, unseen medical imagery. It is noteworthy that while ADZUS demonstrates high effectiveness, it demands substantial computational resources and extended processing times. The model's efficacy in zero-shot settings underscores its potential to reduce reliance on costly annotations and seamlessly adapt to new medical imaging tasks, thereby expanding the diagnostic capabilities of AI-driven medical imaging technologies.
- Abstract(参考訳): 医用画像のための高品質なセグメンテーションマスクの作成は、バイオメディカル画像解析における根本的な課題である。
近年、様々な医用画像モダリティのセグメンテーションを可能にするための大規模教師あり訓練や、密接なアノテーションを使わずにセグメンテーションを容易にするための教師なし訓練が検討されている。
しかし、アノテーションを使わずに、多様な医用画像をゼロショットでセグメント化できるモデルを構築することは、依然として大きなハードルとなっている。
本稿では,ゼロショットバイオメディカルイメージセグメンテーションに自己注意拡散モデルを活用する新しいアプローチであるADZUSを提案する。
ADZUSは、事前に訓練された拡散モデルの本質的な能力を生かし、その生成的および識別的ポテンシャルを利用して、注釈付きトレーニングデータや事前ドメイン固有の知識を必要とせずに、医療画像を分割する。
ADZUSアーキテクチャは、コンテキスト認識と詳細に敏感なセグメンテーションの強調を容易にする自己認識機構を統合している。
皮膚病変のセグメンテーション、胸部X線感染症のセグメンテーション、白血球セグメンテーションなど、さまざまな医療画像データセットにわたる実験結果から、ADZUSが最先端のパフォーマンスを達成することが明らかとなった。
特に、ADZUSはDiceのスコアを88.7\%から92.9\%に、IoUスコアは66.3\%から93.3\%に到達した。
ADZUSは高い有効性を示す一方で、相当な計算資源と処理時間を必要としている点に注意が必要である。
ゼロショット設定におけるモデルの有効性は、コストのかかるアノテーションへの依存を減らし、新しい医療画像タスクにシームレスに適応し、AI駆動型医療画像技術の診断能力を拡大する可能性を示している。
関連論文リスト
- Dynamically evolving segment anything model with continuous learning for medical image segmentation [50.92344083895528]
ダイナミックに進化する医療画像セグメンテーションモデルであるEvoSAMを紹介する。
EvoSAMは、継続的に拡張されるシナリオとタスクの配列から新しい知識を蓄積する。
血管セグメンテーションに関する外科医による実験により、EvoSAMはユーザプロンプトに基づいてセグメンテーション効率を高めることが確認された。
論文 参考訳(メタデータ) (2025-03-08T14:37:52Z) - MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - MedUHIP: Towards Human-In-the-Loop Medical Segmentation [5.520419627866446]
医用画像のセグメンテーションは、固有の不確実性によって特に複雑である。
我々はtextbfuncertainty-aware モデルと textbf Human-in-the-loop 相互作用を統合する新しいアプローチを提案する。
提案手法は,決定論的および不確実性を考慮したモデルよりも優れたセグメンテーション能力を示す。
論文 参考訳(メタデータ) (2024-08-03T01:06:02Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Zero-shot performance of the Segment Anything Model (SAM) in 2D medical
imaging: A comprehensive evaluation and practical guidelines [0.13854111346209866]
Segment Anything Model (SAM)は、大規模なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメント化する。
この結果から,SAMのゼロショット性能は,現在の最先端技術に匹敵するものであることが判明した。
我々は、一貫して堅牢な結果をもたらしながら、最小限の相互作用を必要とする実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-28T22:07:24Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Analysing the effectiveness of a generative model for semi-supervised
medical image segmentation [23.898954721893855]
自動セグメンテーションにおける最先端技術は、U-Netのような差別モデルを用いて、教師付き学習のままである。
半教師付き学習(SSL)は、より堅牢で信頼性の高いモデルを得るために、重複のないデータの豊富さを活用する。
セマンティックGANのような深層生成モデルは、医療画像分割問題に取り組むための真に実行可能な代替手段である。
論文 参考訳(メタデータ) (2022-11-03T15:19:59Z) - CUTS: A Deep Learning and Topological Framework for Multigranular Unsupervised Medical Image Segmentation [8.307551496968156]
医用画像セグメンテーションのための教師なしディープラーニングフレームワークCUTSを提案する。
各画像に対して、画像内コントラスト学習と局所パッチ再構成による埋め込みマップを生成する。
CUTSは、様々な粒度の特徴をハイライトする粗い粒度のセグメンテーションを連続的に生成する。
論文 参考訳(メタデータ) (2022-09-23T01:09:06Z) - SSMD: Semi-Supervised Medical Image Detection with Adaptive Consistency
and Heterogeneous Perturbation [47.001609080453335]
SSMD(Semi-Supervised Medical Image Detector)を提案する。
SSMDの背後にあるモチベーションは、各位置での予測を一貫性のあるものにすることで、ラベルのないデータに対して、自由かつ効果的な監視を提供することである。
広範な実験結果から,提案したSSMDは,幅広い環境下での最先端性能を実現することが示唆された。
論文 参考訳(メタデータ) (2021-06-03T01:59:50Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。