論文の概要: ContourDiff: Unpaired Image Translation with Contour-Guided Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.10786v1
- Date: Sat, 16 Mar 2024 03:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 21:45:00.605767
- Title: ContourDiff: Unpaired Image Translation with Contour-Guided Diffusion Models
- Title(参考訳): ContourDiff: Contour-Guided Diffusion Modelによる画像変換
- Authors: Yuwen Chen, Nicholas Konz, Hanxue Gu, Haoyu Dong, Yaqian Chen, Lin Li, Jisoo Lee, Maciej A. Mazurowski,
- Abstract要約: 異なるモードにわたる正確な医療画像の翻訳には、多くの下流臨床および機械学習の応用がある。
画像のドメイン不変な解剖学的輪郭表現を利用する新しいフレームワークであるContourDiffを提案する。
本手法は,CTからMRIに変換された画像に対して,元のCTマスクを用いてセグメント化モデルを訓練し,その性能を実MRIで検証することによって評価する。
- 参考スコア(独自算出の注目度): 14.487188068402178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately translating medical images across different modalities (e.g., CT to MRI) has numerous downstream clinical and machine learning applications. While several methods have been proposed to achieve this, they often prioritize perceptual quality with respect to output domain features over preserving anatomical fidelity. However, maintaining anatomy during translation is essential for many tasks, e.g., when leveraging masks from the input domain to develop a segmentation model with images translated to the output domain. To address these challenges, we propose ContourDiff, a novel framework that leverages domain-invariant anatomical contour representations of images. These representations are simple to extract from images, yet form precise spatial constraints on their anatomical content. We introduce a diffusion model that converts contour representations of images from arbitrary input domains into images in the output domain of interest. By applying the contour as a constraint at every diffusion sampling step, we ensure the preservation of anatomical content. We evaluate our method by training a segmentation model on images translated from CT to MRI with their original CT masks and testing its performance on real MRIs. Our method outperforms other unpaired image translation methods by a significant margin, furthermore without the need to access any input domain information during training.
- Abstract(参考訳): さまざまなモダリティ(例えばCTからMRI)にわたる正確な医療画像の翻訳には、多くの下流臨床および機械学習の応用がある。
これを実現するためにいくつかの方法が提案されているが、解剖学的忠実性を維持することよりも、出力領域の特徴に関して知覚的品質を優先することが多い。
しかし、入力領域からのマスクを利用して出力領域に変換された画像を含むセグメンテーションモデルを開発する場合、多くのタスクにおいて、翻訳中の解剖の維持が不可欠である。
これらの課題に対処するために、画像のドメイン不変な解剖学的輪郭表現を利用する新しいフレームワークであるContourDiffを提案する。
これらの表現は画像から簡単に抽出できるが、解剖学的内容の正確な空間的制約を形成する。
本稿では,任意の入力領域からの画像の輪郭表現を興味のある出力領域の画像に変換する拡散モデルを提案する。
拡散サンプリングの各ステップで輪郭を制約として適用することにより、解剖学的内容の保存を確実にする。
本手法は,CTからMRIに変換された画像に対して,元のCTマスクを用いてセグメント化モデルを訓練し,その性能を実MRIで検証することによって評価する。
提案手法は,学習中に入力ドメイン情報にアクセスする必要がなく,他の未ペア画像翻訳手法よりも大幅に性能が向上する。
関連論文リスト
- Anatomically-Controllable Medical Image Generation with
Segmentation-Guided Diffusion Models [12.929806513123673]
解剖学的に制御可能な医用画像生成を支援する拡散モデルに基づく手法を提案する。
また, ランダムマスクアブレーショントレーニングアルゴリズムを導入し, 解剖学的制約の組合せの条件付けを可能にする。
論文 参考訳(メタデータ) (2024-02-07T19:35:09Z) - Introducing Shape Prior Module in Diffusion Model for Medical Image
Segmentation [7.7545714516743045]
拡散確率モデル(DDPM)を利用したVerseDiff-UNetというエンドツーエンドフレームワークを提案する。
我々のアプローチは拡散モデルを標準のU字型アーキテクチャに統合する。
本手法はX線画像から得られた脊椎画像の1つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-12T03:05:00Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Contrastive Semi-supervised Learning for Domain Adaptive Segmentation
Across Similar Anatomical Structures [21.54339967787734]
クロス解剖領域適応のためのコントラスト半教師付き学習を提案する。
モデルを適用して、類似した構造をターゲットドメインに分割する。
ターゲットドメインで限定的なアノテーションのみを必要とする。
論文 参考訳(メタデータ) (2022-08-18T02:54:04Z) - Contrastive Image Synthesis and Self-supervised Feature Adaptation for
Cross-Modality Biomedical Image Segmentation [8.772764547425291]
CISFAは、画像ドメインの翻訳と、クロスモーダルなバイオメディカルなイメージセグメンテーションのための教師なしの機能適応に基づいている。
我々は,片側生成モデルを用いて,入力画像のサンプルパッチと対応する合成画像との重み付けパッチワイドコントラスト損失を付加する。
腹腔・全心に対するCTおよびMRI画像を含むセグメンテーションタスクについて検討した。
論文 参考訳(メタデータ) (2022-07-27T01:49:26Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Shape-aware Meta-learning for Generalizing Prostate MRI Segmentation to
Unseen Domains [68.73614619875814]
前立腺MRIのセグメント化におけるモデル一般化を改善するために,新しい形状認識メタラーニング手法を提案する。
実験結果から,本手法は未確認領域の6つの設定すべてにおいて,最先端の一般化手法を一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-04T07:56:02Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。