論文の概要: POUR-Net: A Population-Prior-Aided Over-Under-Representation Network for
Low-Count PET Attenuation Map Generation
- arxiv url: http://arxiv.org/abs/2401.14285v1
- Date: Thu, 25 Jan 2024 16:18:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 13:55:15.057458
- Title: POUR-Net: A Population-Prior-Aided Over-Under-Representation Network for
Low-Count PET Attenuation Map Generation
- Title(参考訳): pour-net : 低数pet減衰マップ生成のための人口優先型プレゼンテーションネットワーク
- Authors: Bo Zhou, Jun Hou, Tianqi Chen, Yinchi Zhou, Xiongchao Chen, Huidong
Xie, Qiong Liu, Xueqi Guo, Yu-Jung Tsai, Vladimir Y. Panin, Takuya Toyonaga,
James S. Duncan, Chi Liu
- Abstract要約: 我々は,革新的な人口支援型過剰表現ネットワークであるPOUR-Netを提案する。
OUR-Netは、低解像度と細部の両方の機能を含む、効率的な機能抽出を容易にする。
OUR-NetとPPGMをカスケードフレームワークに統合することで、$mu$-mapの生成を反復的に洗練し、高品質な$mu$-mapを実現することができる。
- 参考スコア(独自算出の注目度): 17.585509939711958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-dose PET offers a valuable means of minimizing radiation exposure in PET
imaging. However, the prevalent practice of employing additional CT scans for
generating attenuation maps (u-map) for PET attenuation correction
significantly elevates radiation doses. To address this concern and further
mitigate radiation exposure in low-dose PET exams, we propose POUR-Net - an
innovative population-prior-aided over-under-representation network that aims
for high-quality attenuation map generation from low-dose PET. First, POUR-Net
incorporates an over-under-representation network (OUR-Net) to facilitate
efficient feature extraction, encompassing both low-resolution abstracted and
fine-detail features, for assisting deep generation on the full-resolution
level. Second, complementing OUR-Net, a population prior generation machine
(PPGM) utilizing a comprehensive CT-derived u-map dataset, provides additional
prior information to aid OUR-Net generation. The integration of OUR-Net and
PPGM within a cascade framework enables iterative refinement of $\mu$-map
generation, resulting in the production of high-quality $\mu$-maps.
Experimental results underscore the effectiveness of POUR-Net, showing it as a
promising solution for accurate CT-free low-count PET attenuation correction,
which also surpasses the performance of previous baseline methods.
- Abstract(参考訳): 低線量PETはPETイメージングにおける放射線被曝を最小化する貴重な手段を提供する。
しかし,PETの減衰補正にはCTスキャンを併用して減衰マップ(u-map)を作成できるのが一般的である。
この懸念に対処し,低線量PET試験における放射線被曝の軽減を図るため,低線量PETによる高品質減衰マップ生成を目的とした,革新的な人口優先型過剰下地表現ネットワークPOUR-Netを提案する。
第一に、POUR-Netは、低解像度の抽象化と細部の両方の機能を含む効率的な特徴抽出を容易にするために、オーバーアンダー表現ネットワーク(OUR-Net)を導入し、フル解像度レベルでの深部生成を支援する。
次に、包括的ct由来のu-mapデータセットを利用した人口優先生成機械(ppgm)であるour-netを補完する。
OUR-NetとPPGMをカスケードフレームワークに統合することで、$\mu$-mapの生成を反復的に洗練し、高品質な$\mu$-mapを生産することができる。
実験結果はPOUR-Netの有効性を裏付けるもので, 従来のベースライン法よりも高い精度でCTフリーの低数PET減衰補正を行う上で有望な解であることを示している。
関連論文リスト
- Deep kernel representations of latent space features for low-dose PET-MR imaging robust to variable dose reduction [0.09362267584678274]
低線量ポジトロン放射トモグラフィ(PET)画像再構成法は、画像モダリティとしてPETを大幅に改善する可能性がある。
ディープラーニングは、画像再構成問題に事前情報を組み込んで、妥協された信号から定量的に正確な画像を生成する、有望な手段を提供する。
本稿では,カーネル表現を頑健に表現した深層潜伏空間の特徴を明示的にモデル化し,これまで見られなかった線量削減係数に対して頑健な性能を提供する手法を提案する。
論文 参考訳(メタデータ) (2024-09-10T03:57:31Z) - Diffusion Transformer Model With Compact Prior for Low-dose PET Reconstruction [7.320877150436869]
低線量PET画像の再構成品質を高めるために,JCP(Joint compact prior)により導かれる拡散変圧器モデルを提案する。
DTMは拡散モデルの強力な分布マッピング能力と変圧器の容量を組み合わせて長距離依存を捉える。
本手法は放射線曝露リスクを軽減するだけでなく,早期診断や患者管理のためのPETイメージングツールも提供する。
論文 参考訳(メタデータ) (2024-07-01T03:54:43Z) - Image2Points:A 3D Point-based Context Clusters GAN for High-Quality PET
Image Reconstruction [47.398304117228584]
LPETから高品質なSPET画像を再構成する3DポイントベースのコンテキストクラスタGAN(PCC-GAN)を提案する。
臨床とファントムの両方の実験により、PCC-GANは最先端の再建方法よりも優れています。
論文 参考訳(メタデータ) (2024-02-01T06:47:56Z) - PET Synthesis via Self-supervised Adaptive Residual Estimation
Generative Adversarial Network [14.381830012670969]
近年,低線量画像から高画質PET画像を生成する手法が,低線量画像の回収手法の最先端技術であることが報告されている。
これらの問題に対処するため、我々は自己教師付き適応残差推定生成対向ネットワーク(SS-AEGAN)を開発した。
SS-AEGANは、様々な線量還元因子による最先端の合成法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-10-24T06:43:56Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - DETR Doesn't Need Multi-Scale or Locality Design [69.56292005230185]
本稿では,"プレーン"特性を維持できる改良型DETR検出器を提案する。
特定の局所性制約を伴わずに、単一スケールの機能マップとグローバルなクロスアテンション計算を使用する。
マルチスケールな特徴マップと局所性制約の欠如を補うために,2つの単純な技術が平易な設計において驚くほど効果的であることを示す。
論文 参考訳(メタデータ) (2023-08-03T17:59:04Z) - CG-3DSRGAN: A classification guided 3D generative adversarial network
for image quality recovery from low-dose PET images [10.994223928445589]
PET画像では, トレーサー線量による高放射能が主な関心事である。
投与量を減少させると、画像の質が不十分になる。
CNNを用いた低線量PET合成法が開発されている。
論文 参考訳(メタデータ) (2023-04-03T05:39:02Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - RetiNerveNet: Using Recursive Deep Learning to Estimate Pointwise 24-2
Visual Field Data based on Retinal Structure [109.33721060718392]
緑内障は 世界でも 不可逆的な盲目の 主要な原因です 7000万人以上が 影響を受けています
The Standard Automated Perimetry (SAP) test's innate difficulty and its high test-retest variable, we propose the RetiNerveNet。
論文 参考訳(メタデータ) (2020-10-15T03:09:08Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。