論文の概要: Bidirectional Mapping Generative Adversarial Networks for Brain MR to
PET Synthesis
- arxiv url: http://arxiv.org/abs/2008.03483v1
- Date: Sat, 8 Aug 2020 09:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 12:24:17.164185
- Title: Bidirectional Mapping Generative Adversarial Networks for Brain MR to
PET Synthesis
- Title(参考訳): 脳mr-pet合成のための双方向生成逆ネットワーク
- Authors: Shengye Hu, Baiying Lei, Yong Wang, Zhiguang Feng, Yanyan Shen,
Shuqiang Wang
- Abstract要約: BMGAN (Bidirectional Mapping Generative Adversarial Networks) と呼ばれる3次元のエンドツーエンド合成ネットワークを提案する。
提案手法は、異なる被験者の多様な脳構造を保存しながら、知覚的にリアルなPET画像を合成することができる。
- 参考スコア(独自算出の注目度): 29.40385887130174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fusing multi-modality medical images, such as MR and PET, can provide various
anatomical or functional information about human body. But PET data is always
unavailable due to different reasons such as cost, radiation, or other
limitations. In this paper, we propose a 3D end-to-end synthesis network,
called Bidirectional Mapping Generative Adversarial Networks (BMGAN), where
image contexts and latent vector are effectively used and jointly optimized for
brain MR-to-PET synthesis. Concretely, a bidirectional mapping mechanism is
designed to embed the semantic information of PET images into the high
dimensional latent space. And the 3D DenseU-Net generator architecture and the
extensive objective functions are further utilized to improve the visual
quality of synthetic results. The most appealing part is that the proposed
method can synthesize the perceptually realistic PET images while preserving
the diverse brain structures of different subjects. Experimental results
demonstrate that the performance of the proposed method outperforms other
competitive cross-modality synthesis methods in terms of quantitative measures,
qualitative displays, and classification evaluation.
- Abstract(参考訳): MRやPETなどのマルチモーダルな医療画像を使用すると、人体に関する様々な解剖学的、機能的な情報が得られる。
しかし、PETデータはコストや放射線、その他の制限など、さまざまな理由で常に利用できない。
本稿では,画像コンテキストと潜在ベクトルを効果的に利用し,脳MR-PET合成に共同最適化する,双方向マッピング生成適応ネットワーク(BMGAN)と呼ばれる3次元エンドツーエンド合成ネットワークを提案する。
具体的には、PET画像の意味情報を高次元潜在空間に埋め込むための双方向マッピング機構を設計する。
また、3D DenseU-Netジェネレータアーキテクチャと広範囲な目的関数を利用して、合成結果の視覚的品質を向上させる。
最も魅力的なのは、異なる被験者の多様な脳構造を保存しながら、知覚的に現実的なPET画像を合成できることである。
実験により,提案手法の性能は,定量的測定,質的表示,分類評価の点で,他の競争的相互モダリティ合成法よりも優れていた。
関連論文リスト
- Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Functional Imaging Constrained Diffusion for Brain PET Synthesis from Structural MRI [5.190302448685122]
新しい制約拡散モデル (CDM) を用いて, 入力条件として2組構造MRIを用いた3次元脳PET画像合成のためのフレームワークを提案する。
FICDはPETにノイズを導入し、CDMで徐々に除去する。
CDMは、各denoized PETと基底真理との間のボクセルワイドアライメントを確保するために、機能的イメージング制約を導入して、denoized PETを予測することを学ぶ。
論文 参考訳(メタデータ) (2024-05-03T22:33:46Z) - Psychometry: An Omnifit Model for Image Reconstruction from Human Brain Activity [60.983327742457995]
人間の脳活動から見るイメージを再構築することで、人間とコンピュータのビジョンをBrain-Computer Interfaceを通して橋渡しする。
異なる被験者から得られた機能的磁気共鳴イメージング(fMRI)による画像再構成のための全能モデルであるサイコメトリを考案した。
論文 参考訳(メタデータ) (2024-03-29T07:16:34Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Generative Adversarial Networks for Brain Images Synthesis: A Review [2.609784101826762]
医用画像において、画像合成とは、ある画像(シーケンス、モダリティ)を別の画像(シーケンス、モダリティ)から推定する過程である。
GAN(Generative Adversarial Network)は、GAN(Generative-based Deep Learning)の一種。
我々は,CTからPETへの画像合成,CTからMRIへの画像合成,PETへの画像合成,およびその逆を含む最近のGANの展開を要約した。
論文 参考訳(メタデータ) (2023-05-16T17:28:06Z) - CG-3DSRGAN: A classification guided 3D generative adversarial network
for image quality recovery from low-dose PET images [10.994223928445589]
PET画像では, トレーサー線量による高放射能が主な関心事である。
投与量を減少させると、画像の質が不十分になる。
CNNを用いた低線量PET合成法が開発されている。
論文 参考訳(メタデータ) (2023-04-03T05:39:02Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - 3D Segmentation Guided Style-based Generative Adversarial Networks for
PET Synthesis [11.615097017030843]
PET(Full-Dose positron emission tomography)画像の放射性ハザードは依然として懸念されている。
低線量PET画像をフル線量に変換することは大きな関心事である。
PET合成のための新しいセグメンテーション誘導スタイルベース生成対向ネットワーク(SGSGAN)を提案する。
論文 参考訳(メタデータ) (2022-05-18T12:19:17Z) - FastPET: Near Real-Time PET Reconstruction from Histo-Images Using a
Neural Network [0.0]
本稿では,アーキテクチャ的にシンプルで,メモリ空間の効率の良い,新しい直接再構成畳み込みニューラルネットワークであるFastPETを提案する。
FastPETは、原データのヒストイメージ表現で動作し、3D画像ボリューム67倍の高速な再構成を可能にする。
以上の結果から, 再現は非常に高速であるだけでなく, 画像は反復的再構成よりも高品質で低ノイズであることがわかった。
論文 参考訳(メタデータ) (2020-02-11T20:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。