論文の概要: Structurally aware bidirectional unpaired image to image translation
between CT and MR
- arxiv url: http://arxiv.org/abs/2006.03374v1
- Date: Fri, 5 Jun 2020 11:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:20:29.743726
- Title: Structurally aware bidirectional unpaired image to image translation
between CT and MR
- Title(参考訳): CTとMRの画像変換のための構造認識型双方向画像
- Authors: Vismay Agrawal, Avinash Kori, Vikas Kumar Anand, and Ganapathy
Krishnamurthi
- Abstract要約: 深層学習技術は、複数の画像モダリティ間の画像変換に画像の可能性を活用するのに役立つ。
これらの技術は、MRI情報のフィードバックにより、CT下で外科的計画を実行するのに役立つ。
- 参考スコア(独自算出の注目度): 0.14788776577018314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Magnetic Resonance (MR) Imaging and Computed Tomography (CT) are the primary
diagnostic imaging modalities quite frequently used for surgical planning and
analysis. A general problem with medical imaging is that the acquisition
process is quite expensive and time-consuming. Deep learning techniques like
generative adversarial networks (GANs) can help us to leverage the possibility
of an image to image translation between multiple imaging modalities, which in
turn helps in saving time and cost. These techniques will help to conduct
surgical planning under CT with the feedback of MRI information. While previous
studies have shown paired and unpaired image synthesis from MR to CT, image
synthesis from CT to MR still remains a challenge, since it involves the
addition of extra tissue information. In this manuscript, we have implemented
two different variations of Generative Adversarial Networks exploiting the
cycling consistency and structural similarity between both CT and MR image
modalities on a pelvis dataset, thus facilitating a bidirectional exchange of
content and style between these image modalities. The proposed GANs translate
the input medical images by different mechanisms, and hence generated images
not only appears realistic but also performs well across various comparison
metrics, and these images have also been cross verified with a radiologist. The
radiologist verification has shown that slight variations in generated MR and
CT images may not be exactly the same as their true counterpart but it can be
used for medical purposes.
- Abstract(参考訳): mri (mr) とct (ct) は、手術計画や解析に非常に頻繁に用いられる画像診断の主要な特徴である。
医療画像の一般的な問題は、取得プロセスが非常に高価で時間がかかることである。
generative adversarial networks(gans)のようなディープラーニング技術は、複数の画像モダリティ間の画像翻訳の可能性を活用するのに役立ち、時間とコストの節約に役立ちます。
これらの技術は、MRI情報のフィードバックにより、CT下で外科的計画を実行するのに役立つ。
これまでの研究では、MRからCTへの画像合成のペア化とアンペア化が見られたが、組織情報の追加を伴うため、CTからMRへの画像合成は依然として課題である。
本稿では,CT画像とMR画像の両モード間の周期的整合性と構造的類似性を利用した2種類のジェネレーティブ・アドバーサリアル・ネットワークをペロビット・データセット上で実装し,これらの画像モダリティ間のコンテンツとスタイルの双方向交換を容易にする。
提案したGANは入力された医用画像を異なるメカニズムで変換するので、生成した画像は現実的に見えるだけでなく、様々な比較指標でよく機能する。
放射線学の検証では、生成したMR画像とCT画像のわずかな変化は、真の画像と全く同じではなく、医学的目的に使用できることが示されている。
関連論文リスト
- Enhancing CT Image synthesis from multi-modal MRI data based on a
multi-task neural network framework [16.864720020158906]
拡張型Transformer U-Netアーキテクチャに基づく多目的マルチタスクニューラルネットワークフレームワークを提案する。
我々はCT画像を個別のサブタスクに分解する従来の問題を分解する。
マルチモーダルデータを扱う際のフレームワークの汎用性を高めるため,複数の画像チャネルでモデルを拡張した。
論文 参考訳(メタデータ) (2023-12-13T18:22:38Z) - Enhanced Synthetic MRI Generation from CT Scans Using CycleGAN with
Feature Extraction [3.2088888904556123]
合成MRI画像を用いたCTスキャンによるモノモーダル登録の高速化手法を提案する。
提案手法は有望な結果を示し,いくつかの最先端手法より優れていた。
論文 参考訳(メタデータ) (2023-10-31T16:39:56Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Context-Aware Transformers For Spinal Cancer Detection and Radiological
Grading [70.04389979779195]
本稿では,脊椎分析に関わる医療画像問題に対するトランスフォーマーを用いた新しいモデルアーキテクチャを提案する。
MR画像におけるそのようなモデルの2つの応用について考察する: (a)脊椎転移の検出と脊椎骨折の関連状況と転移性脊髄圧迫。
画像中の脊椎のコンテキストを考慮することで,SCTは以前に公表したモデルと比較して,いくつかのグレーディングの精度を向上することを示す。
論文 参考訳(メタデータ) (2022-06-27T10:31:03Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Bridging the gap between paired and unpaired medical image translation [12.28777883776042]
課題CT$rightarrow$MR と CT$rightarrow$CT の修正ピクセルモデルを導入し,MRI スキャンから生成した MRCAT ペアについて検討した。
MR$rightarrow$CTモデルとCT$rightarrow$MRモデルは、実際のCTを入力として正常に動作する。
論文 参考訳(メタデータ) (2021-10-15T23:15:12Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Patch-based field-of-view matching in multi-modal images for
electroporation-based ablations [0.6285581681015912]
マルチモーダルイメージングセンサーは、現在、介入治療作業フローの異なるステップに関与している。
この情報を統合するには、取得した画像間の観測された解剖の正確な空間的アライメントに依存する。
本稿では, ボクセルパッチを用いた地域登録手法が, ボクセルワイドアプローチと「グローバルシフト」アプローチとの間に優れた構造的妥協をもたらすことを示す。
論文 参考訳(メタデータ) (2020-11-09T11:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。