論文の概要: DC-cycleGAN: Bidirectional CT-to-MR Synthesis from Unpaired Data
- arxiv url: http://arxiv.org/abs/2211.01293v1
- Date: Wed, 2 Nov 2022 17:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:02:09.296617
- Title: DC-cycleGAN: Bidirectional CT-to-MR Synthesis from Unpaired Data
- Title(参考訳): DC-cycleGAN: 異常データからの双方向CT-MR合成
- Authors: Jiayuan Wang, Q. M. Jonathan Wu, Farhad Pourpanah
- Abstract要約: 本研究では,非ペアデータから医用画像を生成するための双方向学習モデルとして,二重コントラストサイクルGAN (DC-cycleGAN) を提案する。
実験の結果,DC-cycleGANは他のCycleGANベースの医用画像合成法と比較して有望な結果が得られることが示された。
- 参考スコア(独自算出の注目度): 22.751911825379626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic resonance (MR) and computer tomography (CT) images are two typical
types of medical images that provide mutually-complementary information for
accurate clinical diagnosis and treatment. However, obtaining both images may
be limited due to some considerations such as cost, radiation dose and modality
missing. Recently, medical image synthesis has aroused gaining research
interest to cope with this limitation. In this paper, we propose a
bidirectional learning model, denoted as dual contrast cycleGAN (DC-cycleGAN),
to synthesis medical images from unpaired data. Specifically, a dual contrast
loss is introduced into the discriminators to indirectly build constraints
between MR and CT images by taking the advantage of samples from the source
domain as negative sample and enforce the synthetic images fall far away from
the source domain. In addition, cross entropy and structural similarity index
(SSIM) are integrated into the cycleGAN in order to consider both luminance and
structure of samples when synthesizing images. The experimental results
indicates that DC-cycleGAN is able to produce promising results as compared
with other cycleGAN-based medical image synthesis methods such as cycleGAN,
RegGAN, DualGAN and NiceGAN. The code will be available at
https://github.com/JiayuanWang-JW/DC-cycleGAN.
- Abstract(参考訳): 磁気共鳴 (mr) とコンピュータ断層画像 (ct) は, 臨床診断と治療のための相互補完的情報を提供する医用画像の典型例である。
しかし、コスト、放射線線量、モダリティの欠如など、いくつかの考慮事項により、両画像の取得は制限される可能性がある。
近年、医用画像合成は、この制限に対処するために研究の関心を集めている。
本稿では,障害のないデータから医用画像を生成するための双方向学習モデルとして,二重コントラストサイクルGAN (DC-cycleGAN) を提案する。
具体的には、判別器に二重コントラスト損失を導入して、ソース領域からのサンプルを負のサンプルとして利用し、ソース領域から遠く離れた合成画像を強制することにより、MRとCT画像の制約を間接的に構築する。
さらに、画像合成時の試料の輝度と構造を両立させるために、クロスエントロピーと構造類似度指数(SSIM)をサイクルGANに統合する。
実験の結果,DC-cycleGANはCycleGAN,RegGAN,DualGAN,NiceGANなどの他のCycleGANベースの医用画像合成法と比較して有望な結果が得られることが示された。
コードはhttps://github.com/jiayuanwang-jw/dc-cycleganで入手できる。
関連論文リスト
- Deformation-aware GAN for Medical Image Synthesis with Substantially Misaligned Pairs [0.0]
本稿では,逆整合性に基づく画像合成における誤りを動的に補正する新しい変形認識型GAN(DA-GAN)を提案する。
実験の結果, DA-GANは, 呼吸運動異常を伴う実世界の肺MRI-CTデータセットと模擬誤診を伴う公共データセットにおいて, 優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-18T10:29:35Z) - Gadolinium dose reduction for brain MRI using conditional deep learning [66.99830668082234]
これらの手法の主な課題は、コントラスト強調の正確な予測と現実的な画像の合成である。
コントラスト前の画像対とコントラスト後の画像対のサブトラクション画像に符号化されたコントラスト信号を利用することで、両課題に対処する。
各種スキャナー,フィールド強度,コントラストエージェントを用いた合成および実データに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-03-06T08:35:29Z) - An Attentive-based Generative Model for Medical Image Synthesis [18.94900480135376]
注意に基づく二重コントラスト生成モデルであるADC-cycleGANを提案する。
このモデルは、二重コントラスト損失項とCycleGAN損失を統合し、合成された画像がソース領域と区別可能であることを保証する。
実験により,提案したADCサイクルGANモデルが,他の最先端生成モデルに匹敵するサンプルを生成することが示された。
論文 参考訳(メタデータ) (2023-06-02T14:17:37Z) - Spatial and Modal Optimal Transport for Fast Cross-Modal MRI Reconstruction [54.19448988321891]
本稿では,T1重み付き画像(T1WIs)を補助モダリティとして活用し,T2WIsの取得を高速化するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
最適輸送(OT)を用いてT1WIを整列させてT2WIを合成し、クロスモーダル合成を行う。
再構成されたT2WIと合成されたT2WIがT2画像多様体に近づき、繰り返しが増加することを示す。
論文 参考訳(メタデータ) (2023-05-04T12:20:51Z) - High-fidelity Direct Contrast Synthesis from Magnetic Resonance
Fingerprinting [28.702553164811473]
本稿では,MRFデータからコントラスト強調画像を直接合成する教師あり学習手法を提案する。
In-vivo実験は、シミュレーションベースのコントラスト合成や従来のDCS法と比較して、視覚的にも定量的にも優れた画質を示す。
論文 参考訳(メタデータ) (2022-12-21T07:11:39Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Structurally aware bidirectional unpaired image to image translation
between CT and MR [0.14788776577018314]
深層学習技術は、複数の画像モダリティ間の画像変換に画像の可能性を活用するのに役立つ。
これらの技術は、MRI情報のフィードバックにより、CT下で外科的計画を実行するのに役立つ。
論文 参考訳(メタデータ) (2020-06-05T11:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。