論文の概要: Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2012.01777v1
- Date: Thu, 3 Dec 2020 09:10:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:44:44.659101
- Title: Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation
- Title(参考訳): マルチコントラストMRI画像変換のためのフローベース変形誘導法
- Authors: Toan Duc Bui, Manh Nguyen, Ngan Le, Khoa Luu
- Abstract要約: 本稿では,非可逆的アーキテクチャに基づく画像と画像の非対角変換に対する新しいアプローチを提案する。
我々は、連続スライス間の時間的情報を利用して、不適切な医療画像において、あるドメインを別のドメインに変換する最適化により多くの制約を与える。
- 参考スコア(独自算出の注目度): 7.8333615755210175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image synthesis from corrupted contrasts increases the diversity of
diagnostic information available for many neurological diseases. Recently the
image-to-image translation has experienced significant levels of interest
within medical research, beginning with the successful use of the Generative
Adversarial Network (GAN) to the introduction of cyclic constraint extended to
multiple domains. However, in current approaches, there is no guarantee that
the mapping between the two image domains would be unique or one-to-one. In
this paper, we introduce a novel approach to unpaired image-to-image
translation based on the invertible architecture. The invertible property of
the flow-based architecture assures a cycle-consistency of image-to-image
translation without additional loss functions. We utilize the temporal
information between consecutive slices to provide more constraints to the
optimization for transforming one domain to another in unpaired volumetric
medical images. To capture temporal structures in the medical images, we
explore the displacement between the consecutive slices using a deformation
field. In our approach, the deformation field is used as a guidance to keep the
translated slides realistic and consistent across the translation. The
experimental results have shown that the synthesized images using our proposed
approach are able to archive a competitive performance in terms of mean squared
error, peak signal-to-noise ratio, and structural similarity index when
compared with the existing deep learning-based methods on three standard
datasets, i.e. HCP, MRBrainS13, and Brats2019.
- Abstract(参考訳): 画像合成は、多くの神経疾患で利用可能な診断情報の多様性を高める。
近年,画像と画像の翻訳は,GAN(Generative Adversarial Network)の成功から,複数の領域に拡張された循環的制約の導入に至るまで,医学研究において大きな関心を集めている。
しかし、現在のアプローチでは、2つのイメージドメイン間のマッピングが一意であるか一対一かは保証されていない。
本稿では,非可逆的アーキテクチャに基づく画像から画像への翻訳手法を提案する。
フローベースアーキテクチャの可逆性は、余分な損失関数なしで画像間変換のサイクル整合性を保証する。
連続したスライス間の時間的情報を利用して,非ペア容積医療画像において,ある領域から別の領域への変換の最適化により多くの制約を与える。
医用画像の時間的構造を捉えるために,連続スライス間の変位を変形場を用いて検討する。
本手法では, 変形場は, 翻訳されたスライドをリアルに保ち, 翻訳全体で一貫性を保つためのガイダンスとして用いられる。
実験の結果,提案手法を用いて合成した画像は,従来の3つの標準データセットの深層学習法と比較して,平均二乗誤差,ピーク信号-雑音比,構造的類似度指数で競合性能をアーカイブできることがわかった。
HCP、MRBrainS13、Brats2019。
関連論文リスト
- Anatomical Conditioning for Contrastive Unpaired Image-to-Image Translation of Optical Coherence Tomography Images [0.0]
我々は,光コヒーレンストモグラフィー(OCT)データセットを用いたSpectralis-OCT画像とHome-OCT画像の問題点について検討した。
I2I翻訳は画像が損なわれないため難しい。
提案手法は,スタイル変換された画像とターゲット分布との類似性を高める。
論文 参考訳(メタデータ) (2024-04-08T11:20:28Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - Unsupervised Medical Image Translation with Adversarial Diffusion Models [0.2770822269241974]
ソース・トゥ・ターゲット・モダリティ変換による画像の欠落の計算は、医用画像プロトコルの多様性を向上させることができる。
本稿では, 医用画像翻訳の性能向上のための逆拡散モデルであるSynDiffを提案する。
論文 参考訳(メタデータ) (2022-07-17T15:53:24Z) - Unsupervised Multi-Modal Medical Image Registration via
Discriminator-Free Image-to-Image Translation [4.43142018105102]
本稿では,複数モーダル登録問題をモノモーダル画像に変換するための,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
提案手法では,登録ネットワークのトレーニングを容易にするために,識別不要な翻訳ネットワークと,オブジェクトの形状を保たせるためのパッチワイドなコントラスト損失が組み込まれている。
論文 参考訳(メタデータ) (2022-04-28T17:18:21Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - The Spatially-Correlative Loss for Various Image Translation Tasks [69.62228639870114]
シーン構造の一貫性を保つために、シンプルで効率的かつ効果的な新しい空間相関損失を提案します。
以前の方法は、ピクセルレベルのサイクル一貫性または特徴レベルのマッチング損失を使用してこれを試みます。
I2I翻訳の3つのモードすべてにおいて,ベースラインモデルに対して,単一モーダル,マルチモーダル,さらには単一イメージ翻訳において,明確な改善が見られた。
論文 参考訳(メタデータ) (2021-04-02T02:13:30Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Segmentation-Renormalized Deep Feature Modulation for Unpaired Image
Harmonization [0.43012765978447565]
サイクル一貫性のある生成共役ネットワークは、ソースとターゲットドメイン間のイメージセットの調和に使われてきた。
これらの手法は、不安定性、コントラストの逆転、病理の難治性操作、および実際の医用画像における信頼性を制限したステガノグラフィーマッピングの傾向が強い。
解剖学的レイアウトを維持しながらスキャナ間の調和を低減するセグメンテーション正規化画像翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-11T23:53:51Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。