論文の概要: A Unified Hyper-GAN Model for Unpaired Multi-contrast MR Image
Translation
- arxiv url: http://arxiv.org/abs/2107.11945v1
- Date: Mon, 26 Jul 2021 03:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 15:53:30.404351
- Title: A Unified Hyper-GAN Model for Unpaired Multi-contrast MR Image
Translation
- Title(参考訳): マルチコントラストMR画像変換のための統一ハイパーGANモデル
- Authors: Heran Yang, Jian Sun, Liwei Yang, and Zongben Xu
- Abstract要約: クロスコントラスト画像翻訳は,臨床診断において欠落したコントラストを完遂する上で重要な課題である。
既存のほとんどの手法は、実際のシナリオで多くのコントラスト対が存在するため、非効率なコントラストのペアごとに別々のトランスレータを学習する。
異なるコントラストペア間の効率よく効率的に翻訳できる統一型Hyper-GANモデルを提案する。
- 参考スコア(独自算出の注目度): 30.3586222394436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-contrast image translation is an important task for completing missing
contrasts in clinical diagnosis. However, most existing methods learn separate
translator for each pair of contrasts, which is inefficient due to many
possible contrast pairs in real scenarios. In this work, we propose a unified
Hyper-GAN model for effectively and efficiently translating between different
contrast pairs. Hyper-GAN consists of a pair of hyper-encoder and hyper-decoder
to first map from the source contrast to a common feature space, and then
further map to the target contrast image. To facilitate the translation between
different contrast pairs, contrast-modulators are designed to tune the
hyper-encoder and hyper-decoder adaptive to different contrasts. We also design
a common space loss to enforce that multi-contrast images of a subject share a
common feature space, implicitly modeling the shared underlying anatomical
structures. Experiments on two datasets of IXI and BraTS 2019 show that our
Hyper-GAN achieves state-of-the-art results in both accuracy and efficiency,
e.g., improving more than 1.47 and 1.09 dB in PSNR on two datasets with less
than half the amount of parameters.
- Abstract(参考訳): クロスコントラスト画像翻訳は,臨床診断におけるコントラストの欠如を解消するための重要な課題である。
しかし、既存のほとんどの手法は、実際のシナリオで多くのコントラスト対が存在するため、非効率なコントラスト対ごとに別々のトランスレータを学習する。
本研究では,異なるコントラストペア間の効率よく効率的に翻訳できる統一型Hyper-GANモデルを提案する。
hyper-ganは1対のハイパーエンコーダとハイパーデコーダで構成され、ソースから共通の特徴空間へのコントラストを最初にマップし、さらにターゲットのコントラスト画像にマップする。
コントラストペア間の変換を容易にするために、コントラスト変調器は、異なるコントラストに適応するハイパーエンコーダとハイパーデコーダをチューニングするように設計されている。
また,被写体の複数コントラスト画像が共通の特徴空間を共有し,共有解剖学的構造を暗黙的にモデル化する共通空間損失も設計した。
IXIとBraTS 2019の2つのデータセットの実験によると、ハイパーGANは精度と効率の両方で、パラメータの半分未満の2つのデータセット上でPSNRの1.47と1.09dB以上を改善している。
関連論文リスト
- CAR: Contrast-Agnostic Deformable Medical Image Registration with Contrast-Invariant Latent Regularization [6.313081057543946]
本稿では,任意のコントラスト画像に一般化可能な,コントラストに依存しない新しい画像登録フレームワークを提案する。
特に、画像の任意のコントラストを1つの画像コントラスト上でシミュレートするランダム畳み込みに基づくコントラスト拡張方式を提案する。
実験により、CARは登録精度に関するベースラインアプローチよりも優れており、画像のコントラストが見えないような一般化能力も優れていることが示された。
論文 参考訳(メタデータ) (2024-08-03T19:46:23Z) - Gadolinium dose reduction for brain MRI using conditional deep learning [66.99830668082234]
これらの手法の主な課題は、コントラスト強調の正確な予測と現実的な画像の合成である。
コントラスト前の画像対とコントラスト後の画像対のサブトラクション画像に符号化されたコントラスト信号を利用することで、両課題に対処する。
各種スキャナー,フィールド強度,コントラストエージェントを用いた合成および実データに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-03-06T08:35:29Z) - Single-subject Multi-contrast MRI Super-resolution via Implicit Neural
Representations [9.683341998041634]
Inlicit Neural Representations (INR) は連続空間関数における相補的視点の2つの異なるコントラストを学習することを提案した。
我々のモデルは、3つのデータセットを用いた実験において、異なるコントラストのペア間で現実的な超解像を提供する。
論文 参考訳(メタデータ) (2023-03-27T10:18:42Z) - Deep Intra-Image Contrastive Learning for Weakly Supervised One-Step
Person Search [98.2559247611821]
本稿では,シームズネットワークを用いた画像内コントラスト学習について述べる。
本手法は,弱教師付きワンステップ人物探索手法の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-09T12:45:20Z) - JoJoNet: Joint-contrast and Joint-sampling-and-reconstruction Network
for Multi-contrast MRI [49.29851365978476]
提案フレームワークは,各画像コントラストに対するサンプリングマスク生成器と,コントラスト間相関と繰り返し構造とを併用した再構成器とから構成される。
各画像コントラストの加速度比も学習可能であり、下流タスク性能によって駆動することができる。
論文 参考訳(メタデータ) (2022-10-22T20:46:56Z) - Modulated Contrast for Versatile Image Synthesis [60.304183493234376]
MoNCEは画像のコントラストを導入し、多面的画像間距離の知覚のための校正基準を学習する。
複数の対照的な目的に対して協調的に負のサンプルのプッシュ力を変調するために,MoNCEの最適輸送を導入する。
論文 参考訳(メタデータ) (2022-03-17T14:03:46Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - StereoGAN: Bridging Synthetic-to-Real Domain Gap by Joint Optimization
of Domain Translation and Stereo Matching [56.95846963856928]
大規模な合成データセットはステレオマッチングに有用であるが、通常は既知のドメインバイアスを導入する。
本稿では,ドメイン翻訳とステレオマッチングネットワークを用いたエンドツーエンドのトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-05T03:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。