論文の概要: Structurally aware bidirectional unpaired image to image translation
between CT and MR
- arxiv url: http://arxiv.org/abs/2006.03374v1
- Date: Fri, 5 Jun 2020 11:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:20:29.743726
- Title: Structurally aware bidirectional unpaired image to image translation
between CT and MR
- Title(参考訳): CTとMRの画像変換のための構造認識型双方向画像
- Authors: Vismay Agrawal, Avinash Kori, Vikas Kumar Anand, and Ganapathy
Krishnamurthi
- Abstract要約: 深層学習技術は、複数の画像モダリティ間の画像変換に画像の可能性を活用するのに役立つ。
これらの技術は、MRI情報のフィードバックにより、CT下で外科的計画を実行するのに役立つ。
- 参考スコア(独自算出の注目度): 0.14788776577018314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Magnetic Resonance (MR) Imaging and Computed Tomography (CT) are the primary
diagnostic imaging modalities quite frequently used for surgical planning and
analysis. A general problem with medical imaging is that the acquisition
process is quite expensive and time-consuming. Deep learning techniques like
generative adversarial networks (GANs) can help us to leverage the possibility
of an image to image translation between multiple imaging modalities, which in
turn helps in saving time and cost. These techniques will help to conduct
surgical planning under CT with the feedback of MRI information. While previous
studies have shown paired and unpaired image synthesis from MR to CT, image
synthesis from CT to MR still remains a challenge, since it involves the
addition of extra tissue information. In this manuscript, we have implemented
two different variations of Generative Adversarial Networks exploiting the
cycling consistency and structural similarity between both CT and MR image
modalities on a pelvis dataset, thus facilitating a bidirectional exchange of
content and style between these image modalities. The proposed GANs translate
the input medical images by different mechanisms, and hence generated images
not only appears realistic but also performs well across various comparison
metrics, and these images have also been cross verified with a radiologist. The
radiologist verification has shown that slight variations in generated MR and
CT images may not be exactly the same as their true counterpart but it can be
used for medical purposes.
- Abstract(参考訳): mri (mr) とct (ct) は、手術計画や解析に非常に頻繁に用いられる画像診断の主要な特徴である。
医療画像の一般的な問題は、取得プロセスが非常に高価で時間がかかることである。
generative adversarial networks(gans)のようなディープラーニング技術は、複数の画像モダリティ間の画像翻訳の可能性を活用するのに役立ち、時間とコストの節約に役立ちます。
これらの技術は、MRI情報のフィードバックにより、CT下で外科的計画を実行するのに役立つ。
これまでの研究では、MRからCTへの画像合成のペア化とアンペア化が見られたが、組織情報の追加を伴うため、CTからMRへの画像合成は依然として課題である。
本稿では,CT画像とMR画像の両モード間の周期的整合性と構造的類似性を利用した2種類のジェネレーティブ・アドバーサリアル・ネットワークをペロビット・データセット上で実装し,これらの画像モダリティ間のコンテンツとスタイルの双方向交換を容易にする。
提案したGANは入力された医用画像を異なるメカニズムで変換するので、生成した画像は現実的に見えるだけでなく、様々な比較指標でよく機能する。
放射線学の検証では、生成したMR画像とCT画像のわずかな変化は、真の画像と全く同じではなく、医学的目的に使用できることが示されている。
関連論文リスト
- Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - Leveraging Multimodal CycleGAN for the Generation of Anatomically Accurate Synthetic CT Scans from MRIs [1.779948689352186]
我々は、MRIから合成CTスキャンを生成するために、Deep Learningモデルの異なる構成の能力を解析する。
異なるMRIモダリティからCTスキャンを生成するために、コントラスト剤を使用しないいくつかのCycleGANモデルを教師なしで訓練した。
結果から, 入力のモーダル性に応じて, モデルが全く異なる性能を持つことを示す。
論文 参考訳(メタデータ) (2024-07-15T16:38:59Z) - Enhancing CT Image synthesis from multi-modal MRI data based on a
multi-task neural network framework [16.864720020158906]
拡張型Transformer U-Netアーキテクチャに基づく多目的マルチタスクニューラルネットワークフレームワークを提案する。
我々はCT画像を個別のサブタスクに分解する従来の問題を分解する。
マルチモーダルデータを扱う際のフレームワークの汎用性を高めるため,複数の画像チャネルでモデルを拡張した。
論文 参考訳(メタデータ) (2023-12-13T18:22:38Z) - Enhanced Synthetic MRI Generation from CT Scans Using CycleGAN with
Feature Extraction [3.2088888904556123]
合成MRI画像を用いたCTスキャンによるモノモーダル登録の高速化手法を提案する。
提案手法は有望な結果を示し,いくつかの最先端手法より優れていた。
論文 参考訳(メタデータ) (2023-10-31T16:39:56Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Context-Aware Transformers For Spinal Cancer Detection and Radiological
Grading [70.04389979779195]
本稿では,脊椎分析に関わる医療画像問題に対するトランスフォーマーを用いた新しいモデルアーキテクチャを提案する。
MR画像におけるそのようなモデルの2つの応用について考察する: (a)脊椎転移の検出と脊椎骨折の関連状況と転移性脊髄圧迫。
画像中の脊椎のコンテキストを考慮することで,SCTは以前に公表したモデルと比較して,いくつかのグレーディングの精度を向上することを示す。
論文 参考訳(メタデータ) (2022-06-27T10:31:03Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Bridging the gap between paired and unpaired medical image translation [12.28777883776042]
課題CT$rightarrow$MR と CT$rightarrow$CT の修正ピクセルモデルを導入し,MRI スキャンから生成した MRCAT ペアについて検討した。
MR$rightarrow$CTモデルとCT$rightarrow$MRモデルは、実際のCTを入力として正常に動作する。
論文 参考訳(メタデータ) (2021-10-15T23:15:12Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。