論文の概要: Bridging the gap between paired and unpaired medical image translation
- arxiv url: http://arxiv.org/abs/2110.08407v1
- Date: Fri, 15 Oct 2021 23:15:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 18:17:38.012369
- Title: Bridging the gap between paired and unpaired medical image translation
- Title(参考訳): 対と未対の医用画像翻訳のギャップを埋める
- Authors: Pauliina Paavilainen, Saad Ullah Akram, Juho Kannala
- Abstract要約: 課題CT$rightarrow$MR と CT$rightarrow$CT の修正ピクセルモデルを導入し,MRI スキャンから生成した MRCAT ペアについて検討した。
MR$rightarrow$CTモデルとCT$rightarrow$MRモデルは、実際のCTを入力として正常に動作する。
- 参考スコア(独自算出の注目度): 12.28777883776042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image translation has the potential to reduce the imaging workload,
by removing the need to capture some sequences, and to reduce the annotation
burden for developing machine learning methods. GANs have been used
successfully to translate images from one domain to another, such as MR to CT.
At present, paired data (registered MR and CT images) or extra supervision
(e.g. segmentation masks) is needed to learn good translation models.
Registering multiple modalities or annotating structures within each of them is
a tedious and laborious task. Thus, there is a need to develop improved
translation methods for unpaired data. Here, we introduce modified pix2pix
models for tasks CT$\rightarrow$MR and MR$\rightarrow$CT, trained with unpaired
CT and MR data, and MRCAT pairs generated from the MR scans. The proposed
modifications utilize the paired MR and MRCAT images to ensure good alignment
between input and translated images, and unpaired CT images ensure the
MR$\rightarrow$CT model produces realistic-looking CT and CT$\rightarrow$MR
model works well with real CT as input. The proposed pix2pix variants
outperform baseline pix2pix, pix2pixHD and CycleGAN in terms of FID and KID,
and generate more realistic looking CT and MR translations.
- Abstract(参考訳): 医療画像翻訳は、いくつかのシーケンスをキャプチャする必要性をなくし、機械学習手法を開発するためのアノテーションの負担を減らすことで、画像のワークロードを削減できる可能性がある。
GANは、MRIやCTなど、ある領域から別の領域への画像の変換に成功している。
現在、優れた翻訳モデルを学ぶには、ペアデータ(MRとCTの画像の登録)や余分な監督(セグメンテーションマスクなど)が必要である。
複数のモダリティやアノテート構造を登録するのは面倒で面倒な作業です。
したがって、ペアなしデータの翻訳方法を改善する必要がある。
本稿では,CTおよびMRデータを用いて訓練したCT$\rightarrow$MRとMR$\rightarrow$CTの修正ピクセルモデルとMRスキャンから生成したMRATペアについて紹介する。
提案手法では, MR と MRCAT のペア画像を用いて, 入力画像と変換画像の整合性を確保するとともに, MR$\rightarrow$CT モデルがリアルなCTを生成し, CT$\rightarrow$MR モデルが実際のCTを入力としてうまく動作することを保証している。
提案したPix2pix変種は、FIDおよびKIDの観点からベースラインのPix2pix、Pix2pixHD、CycleGANを上回り、よりリアルなCTおよびMR翻訳を生成する。
関連論文リスト
- Denoising diffusion-based MRI to CT image translation enables automated
spinal segmentation [8.094450260464354]
本研究は,T1wとT2wのMR画像系列をCT/MRの合計263対のCT画像に変換することを含む。
椎骨登録1回あたりの2つのランドマークは、MRIからCTへの画像と画像の変換を可能にし、すべての未経験のアプローチより優れていた。
論文 参考訳(メタデータ) (2023-08-18T07:07:15Z) - Recurrence With Correlation Network for Medical Image Registration [66.63200823918429]
本稿では,医療画像登録ネットワークであるRecurrence with correlation Network (RWCNet)について述べる。
これらの特徴により、2つの画像登録データセットにおける医用画像登録精度が向上することが実証された。
論文 参考訳(メタデータ) (2023-02-05T02:41:46Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation [4.409836695738518]
我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
論文 参考訳(メタデータ) (2021-07-16T15:58:15Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Adversarial Uni- and Multi-modal Stream Networks for Multimodal Image
Registration [20.637787406888478]
CT画像とMR画像との変形性画像登録は多くの画像誘導療法において不可欠である。
本稿では,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
本手法は2つの臨床データセットで評価され,最先端の従来法と学習法と比較して有望な結果が得られた。
論文 参考訳(メタデータ) (2020-07-06T14:44:06Z) - Structurally aware bidirectional unpaired image to image translation
between CT and MR [0.14788776577018314]
深層学習技術は、複数の画像モダリティ間の画像変換に画像の可能性を活用するのに役立つ。
これらの技術は、MRI情報のフィードバックにより、CT下で外科的計画を実行するのに役立つ。
論文 参考訳(メタデータ) (2020-06-05T11:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。