論文の概要: MR-Contrast-Aware Image-to-Image Translations with Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2104.01449v1
- Date: Sat, 3 Apr 2021 17:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:23:45.977096
- Title: MR-Contrast-Aware Image-to-Image Translations with Generative
Adversarial Networks
- Title(参考訳): MR-Contrast-Aware Image-to-Image Translations with Generative Adversarial Networks
- Authors: Jonas Denck, Jens Guehring, Andreas Maier, Eva Rothgang
- Abstract要約: MR取得パラメータの反復時間とエコー時間に基づいて,画像から画像へ生成する敵ネットワークを訓練する。
提案手法はピーク信号対雑音比と24.48と0.66の構造的類似性を示し,ピクセルベンチマークモデルを大幅に上回っている。
- 参考スコア(独自算出の注目度): 5.3580471186206005
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Purpose
A Magnetic Resonance Imaging (MRI) exam typically consists of several
sequences that yield different image contrasts. Each sequence is parameterized
through multiple acquisition parameters that influence image contrast,
signal-to-noise ratio, acquisition time, and/or resolution. Depending on the
clinical indication, different contrasts are required by the radiologist to
make a diagnosis. As MR sequence acquisition is time consuming and acquired
images may be corrupted due to motion, a method to synthesize MR images with
adjustable contrast properties is required.
Methods
Therefore, we trained an image-to-image generative adversarial network
conditioned on the MR acquisition parameters repetition time and echo time. Our
approach is motivated by style transfer networks, whereas the "style" for an
image is explicitly given in our case, as it is determined by the MR
acquisition parameters our network is conditioned on.
Results
This enables us to synthesize MR images with adjustable image contrast. We
evaluated our approach on the fastMRI dataset, a large set of publicly
available MR knee images, and show that our method outperforms a benchmark
pix2pix approach in the translation of non-fat-saturated MR images to
fat-saturated images. Our approach yields a peak signal-to-noise ratio and
structural similarity of 24.48 and 0.66, surpassing the pix2pix benchmark model
significantly.
Conclusion
Our model is the first that enables fine-tuned contrast synthesis, which can
be used to synthesize missing MR contrasts or as a data augmentation technique
for AI training in MRI.
- Abstract(参考訳): 目的 磁気共鳴画像検査(mri)は、画像のコントラストが異なる複数の配列から構成される。
各シーケンスは、画像コントラスト、信号対雑音比、取得時間、および/または解像度に影響を与える複数の取得パラメータによってパラメータ化される。
臨床所見によっては、放射線医が診断するために異なるコントラストが必要である。
MRシークエンス取得は時間を要するため、運動により取得した画像を劣化させる可能性があるため、調整可能なコントラスト特性を持つMR画像の合成方法が必要である。
そこで,mr取得パラメータの繰り返し時間とエコー時間に基づいて,画像対画像生成逆ネットワークを訓練した。
画像の「スタイル」は我々のネットワークが条件付けしているmr取得パラメータによって決定されるため、我々のアプローチはスタイル転送ネットワークに動機づけられているが、画像の「スタイル」は我々の場合明示的に与えられる。
画像のコントラストの調整が可能なMR画像の合成が可能となる。
提案手法は, 市販のmr膝画像の大規模セットであるfastmriデータセットのアプローチを評価し, 非脂肪飽和mr画像から脂肪飽和画像への変換において, pix2pixのベンチマーク手法よりも優れていることを示した。
提案手法はピーク信号対雑音比と24.48と0.66の構造的類似性を示し,ピクセルベンチマークモデルを大幅に上回っている。
結論 我々のモデルは、MRIにおけるAIトレーニングのためのデータ拡張技術として、欠けているMRコントラストを合成するために使用できる、微調整コントラスト合成を可能にする最初のモデルである。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Joint Edge Optimization Deep Unfolding Network for Accelerated MRI Reconstruction [3.9681863841849623]
我々はMR画像とエッジの両方に固有の個別正規化器を組み込むだけでなく、協調正規化器を強制してそれらの相関を効果的に確立するジョイントエッジ最適化モデルを構築した。
具体的には、エッジ情報を非エッジ確率マップで定義し、最適化プロセス中に画像再構成を誘導する。
一方、画像やエッジに関連するレギュレータは、それぞれ固有のアプリオリ情報を自動的に学習するために、深く展開するネットワークに組み込まれる。
論文 参考訳(メタデータ) (2024-05-09T05:51:33Z) - High-fidelity Direct Contrast Synthesis from Magnetic Resonance
Fingerprinting [28.702553164811473]
本稿では,MRFデータからコントラスト強調画像を直接合成する教師あり学習手法を提案する。
In-vivo実験は、シミュレーションベースのコントラスト合成や従来のDCS法と比較して、視覚的にも定量的にも優れた画質を示す。
論文 参考訳(メタデータ) (2022-12-21T07:11:39Z) - JoJoNet: Joint-contrast and Joint-sampling-and-reconstruction Network
for Multi-contrast MRI [49.29851365978476]
提案フレームワークは,各画像コントラストに対するサンプリングマスク生成器と,コントラスト間相関と繰り返し構造とを併用した再構成器とから構成される。
各画像コントラストの加速度比も学習可能であり、下流タスク性能によって駆動することができる。
論文 参考訳(メタデータ) (2022-10-22T20:46:56Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Deep Learning-Based MR Image Re-parameterization [0.0]
本稿では,MRI再パラメータ化のための新しいディープラーニング(DL)に基づく畳み込みモデルを提案する。
予備的な結果に基づいて、DLベースの手法は、re-パラメータ化を管理する非線形性を学ぶ可能性を秘めている。
論文 参考訳(メタデータ) (2022-06-11T12:39:37Z) - A Long Short-term Memory Based Recurrent Neural Network for
Interventional MRI Reconstruction [50.1787181309337]
本稿では,畳み込み長短期記憶(Conv-LSTM)に基づくリカレントニューラルネットワーク(Recurrent Neural Network, RNN)を提案する。
提案アルゴリズムは,DBSのリアルタイムi-MRIを実現する可能性があり,汎用的なMR誘導介入に使用できる。
論文 参考訳(メタデータ) (2022-03-28T14:03:45Z) - Multi-Modal MRI Reconstruction with Spatial Alignment Network [51.74078260367654]
臨床実践では、複数のコントラストを持つMRIが1つの研究で取得されるのが普通である。
近年の研究では、異なるコントラストやモダリティの冗長性を考慮すると、k空間にアンダーサンプリングされたMRIの目標モダリティは、完全にサンプリングされたシーケンスの助けを借りてよりよく再構成できることが示されている。
本稿では,空間アライメントネットワークと再構成を統合し,再構成対象のモダリティの質を向上させる。
論文 参考訳(メタデータ) (2021-08-12T08:46:35Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Enhanced Magnetic Resonance Image Synthesis with Contrast-Aware
Generative Adversarial Networks [5.3580471186206005]
各種取得パラメータを基準とした合成MR膝画像を生成するために,GAN(generative adversarial Network)を訓練した。
チューリング試験では、2人の専門家が実際のMR画像と合成画像の40.5%を誤ってラベル付けし、生成された合成画像と実際のMR画像の画質が同等であることを示した。
論文 参考訳(メタデータ) (2021-02-17T11:39:36Z) - Dual-cycle Constrained Bijective VAE-GAN For Tagged-to-Cine Magnetic
Resonance Image Synthesis [11.697141493937021]
VAE-GANによるタグ付け-Cine MR画像合成手法を提案する。
このフレームワークは1,768,416,および1,560個の被検非依存のタグ付きMRIとシネMRIを用いて,訓練,検証,および試験を行った。
論文 参考訳(メタデータ) (2021-01-14T03:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。