論文の概要: ContourDiff: Unpaired Image Translation with Contour-Guided Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.10786v1
- Date: Sat, 16 Mar 2024 03:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 21:45:00.605767
- Title: ContourDiff: Unpaired Image Translation with Contour-Guided Diffusion Models
- Title(参考訳): ContourDiff: Contour-Guided Diffusion Modelによる画像変換
- Authors: Yuwen Chen, Nicholas Konz, Hanxue Gu, Haoyu Dong, Yaqian Chen, Lin Li, Jisoo Lee, Maciej A. Mazurowski,
- Abstract要約: 異なるモードにわたる正確な医療画像の翻訳には、多くの下流臨床および機械学習の応用がある。
画像のドメイン不変な解剖学的輪郭表現を利用する新しいフレームワークであるContourDiffを提案する。
本手法は,CTからMRIに変換された画像に対して,元のCTマスクを用いてセグメント化モデルを訓練し,その性能を実MRIで検証することによって評価する。
- 参考スコア(独自算出の注目度): 14.487188068402178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately translating medical images across different modalities (e.g., CT to MRI) has numerous downstream clinical and machine learning applications. While several methods have been proposed to achieve this, they often prioritize perceptual quality with respect to output domain features over preserving anatomical fidelity. However, maintaining anatomy during translation is essential for many tasks, e.g., when leveraging masks from the input domain to develop a segmentation model with images translated to the output domain. To address these challenges, we propose ContourDiff, a novel framework that leverages domain-invariant anatomical contour representations of images. These representations are simple to extract from images, yet form precise spatial constraints on their anatomical content. We introduce a diffusion model that converts contour representations of images from arbitrary input domains into images in the output domain of interest. By applying the contour as a constraint at every diffusion sampling step, we ensure the preservation of anatomical content. We evaluate our method by training a segmentation model on images translated from CT to MRI with their original CT masks and testing its performance on real MRIs. Our method outperforms other unpaired image translation methods by a significant margin, furthermore without the need to access any input domain information during training.
- Abstract(参考訳): さまざまなモダリティ(例えばCTからMRI)にわたる正確な医療画像の翻訳には、多くの下流臨床および機械学習の応用がある。
これを実現するためにいくつかの方法が提案されているが、解剖学的忠実性を維持することよりも、出力領域の特徴に関して知覚的品質を優先することが多い。
しかし、入力領域からのマスクを利用して出力領域に変換された画像を含むセグメンテーションモデルを開発する場合、多くのタスクにおいて、翻訳中の解剖の維持が不可欠である。
これらの課題に対処するために、画像のドメイン不変な解剖学的輪郭表現を利用する新しいフレームワークであるContourDiffを提案する。
これらの表現は画像から簡単に抽出できるが、解剖学的内容の正確な空間的制約を形成する。
本稿では,任意の入力領域からの画像の輪郭表現を興味のある出力領域の画像に変換する拡散モデルを提案する。
拡散サンプリングの各ステップで輪郭を制約として適用することにより、解剖学的内容の保存を確実にする。
本手法は,CTからMRIに変換された画像に対して,元のCTマスクを用いてセグメント化モデルを訓練し,その性能を実MRIで検証することによって評価する。
提案手法は,学習中に入力ドメイン情報にアクセスする必要がなく,他の未ペア画像翻訳手法よりも大幅に性能が向上する。
関連論文リスト
- Rethinking Perceptual Metrics for Medical Image Translation [11.930968669340864]
このサブフィールドの解剖学的制約に乏しいため,知覚的指標がセグメンテーション指標と相関しないことを示す。
より少ないピクセルレベルのSWDメートル法は, 微妙なモダリティ内翻訳に有用であると考えられた。
論文 参考訳(メタデータ) (2024-04-10T19:39:43Z) - Language Guided Domain Generalized Medical Image Segmentation [68.93124785575739]
単一ソースドメインの一般化は、より信頼性が高く一貫性のあるイメージセグメンテーションを現実の臨床環境にわたって約束する。
本稿では,テキストエンコーダ機能によって案内されるコントラスト学習機構を組み込むことで,テキスト情報を明確に活用する手法を提案する。
文献における既存手法に対して,本手法は良好な性能を発揮する。
論文 参考訳(メタデータ) (2024-04-01T17:48:15Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Segmentation-Renormalized Deep Feature Modulation for Unpaired Image
Harmonization [0.43012765978447565]
サイクル一貫性のある生成共役ネットワークは、ソースとターゲットドメイン間のイメージセットの調和に使われてきた。
これらの手法は、不安定性、コントラストの逆転、病理の難治性操作、および実際の医用画像における信頼性を制限したステガノグラフィーマッピングの傾向が強い。
解剖学的レイアウトを維持しながらスキャナ間の調和を低減するセグメンテーション正規化画像翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-11T23:53:51Z) - ICMSC: Intra- and Cross-modality Semantic Consistency for Unsupervised
Domain Adaptation on Hip Joint Bone Segmentation [1.4148874598036136]
UDAのためのICMSC(Intra- and Cross-modality semantic consistent)を提案する。
提案手法では,アセタブルムの平均DICEは81.61%,近位大腿骨は88.16%であった。
UDAなしでは、股関節骨分割のためのCTで訓練されたモデルはMRIに転送できず、ほぼゼロDICE分割を有する。
論文 参考訳(メタデータ) (2020-12-23T09:58:38Z) - Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation [7.8333615755210175]
本稿では,非可逆的アーキテクチャに基づく画像と画像の非対角変換に対する新しいアプローチを提案する。
我々は、連続スライス間の時間的情報を利用して、不適切な医療画像において、あるドメインを別のドメインに変換する最適化により多くの制約を与える。
論文 参考訳(メタデータ) (2020-12-03T09:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。