論文の概要: 3D Segmentation Guided Style-based Generative Adversarial Networks for
PET Synthesis
- arxiv url: http://arxiv.org/abs/2205.08887v1
- Date: Wed, 18 May 2022 12:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 13:22:38.133104
- Title: 3D Segmentation Guided Style-based Generative Adversarial Networks for
PET Synthesis
- Title(参考訳): pet合成のための3次元セグメンテーション誘導型生成逆ネットワーク
- Authors: Yang Zhou, Zhiwen Yang, Hui Zhang, Eric I-Chao Chang, Yubo Fan, Yan Xu
- Abstract要約: PET(Full-Dose positron emission tomography)画像の放射性ハザードは依然として懸念されている。
低線量PET画像をフル線量に変換することは大きな関心事である。
PET合成のための新しいセグメンテーション誘導スタイルベース生成対向ネットワーク(SGSGAN)を提案する。
- 参考スコア(独自算出の注目度): 11.615097017030843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Potential radioactive hazards in full-dose positron emission tomography (PET)
imaging remain a concern, whereas the quality of low-dose images is never
desirable for clinical use. So it is of great interest to translate low-dose
PET images into full-dose. Previous studies based on deep learning methods
usually directly extract hierarchical features for reconstruction. We notice
that the importance of each feature is different and they should be weighted
dissimilarly so that tiny information can be captured by the neural network.
Furthermore, the synthesis on some regions of interest is important in some
applications. Here we propose a novel segmentation guided style-based
generative adversarial network (SGSGAN) for PET synthesis. (1) We put forward a
style-based generator employing style modulation, which specifically controls
the hierarchical features in the translation process, to generate images with
more realistic textures. (2) We adopt a task-driven strategy that couples a
segmentation task with a generative adversarial network (GAN) framework to
improve the translation performance. Extensive experiments show the superiority
of our overall framework in PET synthesis, especially on those regions of
interest.
- Abstract(参考訳): フルドースポジトロン・エミッション・トモグラフィ(pet)における放射性ハザードの可能性は依然として懸念されているが、低ドース画像の品質は臨床での使用には望ましくない。
そのため、低線量PET画像をフル線量に変換することは非常に興味深い。
ディープラーニング法に基づく先行研究は通常、再構築のための階層的特徴を直接抽出する。
それぞれの特徴の重要性が異なり、ニューラルネットワークによって小さな情報が取得できるように、異なる重み付けをすべきである。
さらに、興味のある領域における合成は、いくつかの応用において重要である。
本稿では,PET合成のための新しいセグメンテーション誘導スタイルベース生成対向ネットワーク(SGSGAN)を提案する。
1) より現実的なテクスチャを持つ画像を生成するために, 翻訳過程の階層的特徴を特に制御するスタイル変調を用いたスタイルベースジェネレータを提案する。
2) セグメンテーションタスクをGAN(Generative Adversarial Network)フレームワークに結合して翻訳性能を向上させるタスク駆動型戦略を採用する。
大規模な実験により、PET合成における全体的な枠組み、特に関心のある領域における優位性が示された。
関連論文リスト
- Image2Points:A 3D Point-based Context Clusters GAN for High-Quality PET
Image Reconstruction [47.398304117228584]
LPETから高品質なSPET画像を再構成する3DポイントベースのコンテキストクラスタGAN(PCC-GAN)を提案する。
臨床とファントムの両方の実験により、PCC-GANは最先端の再建方法よりも優れています。
論文 参考訳(メタデータ) (2024-02-01T06:47:56Z) - PET Synthesis via Self-supervised Adaptive Residual Estimation
Generative Adversarial Network [14.381830012670969]
近年,低線量画像から高画質PET画像を生成する手法が,低線量画像の回収手法の最先端技術であることが報告されている。
これらの問題に対処するため、我々は自己教師付き適応残差推定生成対向ネットワーク(SS-AEGAN)を開発した。
SS-AEGANは、様々な線量還元因子による最先端の合成法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-10-24T06:43:56Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - MedSyn: Text-guided Anatomy-aware Synthesis of High-Fidelity 3D CT Images [22.455833806331384]
本稿では,テキスト情報によって誘導される高品質な3次元肺CT画像を作成するための革新的な手法を提案する。
現在の最先端のアプローチは、低解像度の出力に限られており、放射線学レポートの豊富な情報を不活用している。
論文 参考訳(メタデータ) (2023-10-05T14:16:22Z) - CG-3DSRGAN: A classification guided 3D generative adversarial network
for image quality recovery from low-dose PET images [10.994223928445589]
PET画像では, トレーサー線量による高放射能が主な関心事である。
投与量を減少させると、画像の質が不十分になる。
CNNを用いた低線量PET合成法が開発されている。
論文 参考訳(メタデータ) (2023-04-03T05:39:02Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - PhysFormer: Facial Video-based Physiological Measurement with Temporal
Difference Transformer [55.936527926778695]
近年のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙なrの手がかりのマイニングに重点を置いている。
本稿では,エンドツーエンドのビデオトランスをベースとしたアーキテクチャであるPhysFormerを提案する。
論文 参考訳(メタデータ) (2021-11-23T18:57:11Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Bidirectional Mapping Generative Adversarial Networks for Brain MR to
PET Synthesis [29.40385887130174]
BMGAN (Bidirectional Mapping Generative Adversarial Networks) と呼ばれる3次元のエンドツーエンド合成ネットワークを提案する。
提案手法は、異なる被験者の多様な脳構造を保存しながら、知覚的にリアルなPET画像を合成することができる。
論文 参考訳(メタデータ) (2020-08-08T09:27:48Z) - Automatic Ischemic Stroke Lesion Segmentation from Computed Tomography
Perfusion Images by Image Synthesis and Attention-Based Deep Neural Networks [15.349968422713218]
急性期脳梗塞の正確な診断には脳卒中病変の分節が重要である。
低画像コントラストと拡散パラメータマップの分解能に挑戦する。
拡散パラメータマップから合成擬似重み画像に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-07T09:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。