論文の概要: High Tissue Contrast MRI Synthesis Using Multi-Stage Attention-GAN for
Glioma Segmentation
- arxiv url: http://arxiv.org/abs/2006.05030v1
- Date: Tue, 9 Jun 2020 03:21:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:47:37.626802
- Title: High Tissue Contrast MRI Synthesis Using Multi-Stage Attention-GAN for
Glioma Segmentation
- Title(参考訳): グリオーマ分節に対する多段階注意-GANを用いた高組織コントラストMRI合成
- Authors: Mohammad Hamghalam, Baiying Lei, Tianfu Wang
- Abstract要約: 本稿では, 合成高組織コントラスト(HTC)画像を生成するために, 画像から画像への変換技術の有用性を示す。
我々は,組織内部のコントラストを高めるために,注意機構を有する新しいサイクル生成対向ネットワーク(CycleGAN)を採用した。
グリオーマ腫瘍を含む脳MRスキャンにおけるHTC像の合成法について述べる。
- 参考スコア(独自算出の注目度): 25.408175460840802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic resonance imaging (MRI) provides varying tissue contrast images of
internal organs based on a strong magnetic field. Despite the non-invasive
advantage of MRI in frequent imaging, the low contrast MR images in the target
area make tissue segmentation a challenging problem. This paper demonstrates
the potential benefits of image-to-image translation techniques to generate
synthetic high tissue contrast (HTC) images. Notably, we adopt a new cycle
generative adversarial network (CycleGAN) with an attention mechanism to
increase the contrast within underlying tissues. The attention block, as well
as training on HTC images, guides our model to converge on certain tissues. To
increase the resolution of HTC images, we employ multi-stage architecture to
focus on one particular tissue as a foreground and filter out the irrelevant
background in each stage. This multi-stage structure also alleviates the common
artifacts of the synthetic images by decreasing the gap between source and
target domains. We show the application of our method for synthesizing HTC
images on brain MR scans, including glioma tumor. We also employ HTC MR images
in both the end-to-end and two-stage segmentation structure to confirm the
effectiveness of these images. The experiments over three competitive
segmentation baselines on BraTS 2018 dataset indicate that incorporating the
synthetic HTC images in the multi-modal segmentation framework improves the
average Dice scores 0.8%, 0.6%, and 0.5% on the whole tumor, tumor core, and
enhancing tumor, respectively, while eliminating one real MRI sequence from the
segmentation procedure.
- Abstract(参考訳): 磁気共鳴イメージング(mri)は、強い磁場に基づいて内部臓器の様々な組織コントラスト画像を提供する。
頻繁な画像撮影におけるMRIの非侵襲的優位性にもかかわらず、目標領域の低コントラストMRI画像は、組織分節化を困難な問題にしている。
本稿では,合成ハイティティッシュコントラスト(htc)画像を生成するための画像から画像への変換技術の可能性を示す。
特に,基礎組織内のコントラストを増大させるための注意機構を備えた,新しいサイクル生成逆向ネットワーク(cyclegan)を採用する。
注意ブロックとHTCイメージのトレーニングは、モデルを特定の組織に収束させるためのガイドとなります。
HTC画像の解像度を高めるために、我々は多段階のアーキテクチャを用いて、1つの特定の組織を前景とし、各ステージの無関係な背景をフィルタリングする。
この多段構造は、ソース領域とターゲット領域の間のギャップを小さくすることで合成画像の共通のアーティファクトを緩和する。
グリオーマ腫瘍を含む脳MRスキャンにおけるHTC像の合成法について述べる。
また,HTC MR画像をエンド・ツー・エンドと2段階のセグメンテーション構造に応用し,これらの画像の有効性を確認する。
BraTS 2018データセット上の3つの競合セグメンテーションベースラインに関する実験は、多モードセグメンテーションフレームワークに合成HTCイメージを組み込むことで、腫瘍全体、腫瘍コア、造影腫瘍の平均Diceスコアが0.8%、0.6%、0.5%向上し、セグメンテーション手順から1つのMRIシーケンスを排除したことを示している。
関連論文リスト
- Two-Stage Approach for Brain MR Image Synthesis: 2D Image Synthesis and 3D Refinement [1.5683566370372715]
腫瘍像を正確に表現することで,欠失モードの特異な特徴を反映したMRI画像の合成が重要である。
本稿では,2次元スライスからMR画像を合成する2段階の手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T08:21:08Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Volumetric Reconstruction Resolves Off-Resonance Artifacts in Static and
Dynamic PROPELLER MRI [76.60362295758596]
磁気共鳴イメージング(MRI)におけるオフ共鳴アーティファクトは、画像ボリューム内のスピンの実際の共鳴周波数が空間情報を符号化するのに使用される期待周波数と異なる場合に発生する視覚歪みである。
本稿では,2次元MRI再構成問題を3次元に引き上げ,このオフ共鳴をモデル化するための「スペクトル」次元を導入することで,これらのアーチファクトを解決することを提案する。
論文 参考訳(メタデータ) (2023-11-22T05:44:51Z) - Enhanced Synthetic MRI Generation from CT Scans Using CycleGAN with
Feature Extraction [3.2088888904556123]
合成MRI画像を用いたCTスキャンによるモノモーダル登録の高速化手法を提案する。
提案手法は有望な結果を示し,いくつかの最先端手法より優れていた。
論文 参考訳(メタデータ) (2023-10-31T16:39:56Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - The Brain Tumor Segmentation (BraTS) Challenge 2023: Brain MR Image Synthesis for Tumor Segmentation (BraSyn) [9.082208613256295]
本稿では,脳MR画像合成ベンチマーク(BraSyn)とMICCAI(Medical Image Computing and Computer-Assisted Intervention)2023を併用して,脳MR画像合成ベンチマーク(BraSyn)の確立について紹介する。
この課題の主な目的は、複数の利用可能な画像が提供される際に、MRIの欠落を現実的に生成できる画像合成手法を評価することである。
論文 参考訳(メタデータ) (2023-05-15T20:49:58Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - ShuffleUNet: Super resolution of diffusion-weighted MRIs using deep
learning [47.68307909984442]
SISR(Single Image Super-Resolution)は、1つの低解像度入力画像から高解像度(HR)の詳細を得る技術である。
ディープラーニングは、大きなデータセットから事前知識を抽出し、低解像度の画像から優れたMRI画像を生成します。
論文 参考訳(メタデータ) (2021-02-25T14:52:23Z) - Dual-cycle Constrained Bijective VAE-GAN For Tagged-to-Cine Magnetic
Resonance Image Synthesis [11.697141493937021]
VAE-GANによるタグ付け-Cine MR画像合成手法を提案する。
このフレームワークは1,768,416,および1,560個の被検非依存のタグ付きMRIとシネMRIを用いて,訓練,検証,および試験を行った。
論文 参考訳(メタデータ) (2021-01-14T03:27:16Z) - Multi-Modality Generative Adversarial Networks with Tumor Consistency
Loss for Brain MR Image Synthesis [30.64847799586407]
1つのMRモードT2から3つの高品質MRモード(FLAIR, T1, T1ce)を同時に合成する多モード生成対向ネットワーク(MGAN)を提案する。
実験結果から, 合成画像の品質は, ベースラインモデル, pix2pixで合成した画像より優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-02T21:33:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。