論文の概要: Machine Learning in Quantitative PET Imaging
- arxiv url: http://arxiv.org/abs/2001.06597v1
- Date: Sat, 18 Jan 2020 04:35:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 05:01:38.756119
- Title: Machine Learning in Quantitative PET Imaging
- Title(参考訳): 定量PETイメージングにおける機械学習
- Authors: Tonghe Wang, Yang Lei, Yabo Fu, Walter J. Curran, Tian Liu, Xiaofeng
Yang
- Abstract要約: 本稿では, 定量的ポジトロン放射トモグラフィ(PET)の機械学習による研究について概説する。
PET減衰補正と低数PET再構成における機械学習手法の最近の進歩を要約した。
- 参考スコア(独自算出の注目度): 2.486673750594755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper reviewed the machine learning-based studies for quantitative
positron emission tomography (PET). Specifically, we summarized the recent
developments of machine learning-based methods in PET attenuation correction
and low-count PET reconstruction by listing and comparing the proposed methods,
study designs and reported performances of the current published studies with
brief discussion on representative studies. The contributions and challenges
among the reviewed studies were summarized and highlighted in the discussion
part followed by.
- Abstract(参考訳): 本稿では, 定量的ポジトロン放射トモグラフィ(PET)の機械学習による研究について概説する。
具体的には,PETの減衰補正と低数のPET再構成における機械学習手法の最近の進歩を,提案手法をリストアップして比較し,提案手法について検討した。
レビューされた研究の貢献と課題は、議論の後にまとめられ、強調された。
関連論文リスト
- Synthetic CT Generation via Variant Invertible Network for All-digital
Brain PET Attenuation Correction [11.402215536210337]
減衰補正(AC)は, アーティファクトフリーで定量精度の高いポジトロン放射トモグラフィ(PET)画像の生成に不可欠である。
本稿では,脳PET画像における非減衰補正PET画像から,深層学習を用いて連続的に評価されたCT画像を生成するPET AC法を開発した。
論文 参考訳(メタデータ) (2023-10-03T08:38:52Z) - FP-PET: Large Model, Multiple Loss And Focused Practice [4.449900388678701]
本研究は,CTおよびPET画像に焦点をあてた医用画像セグメンテーションへの包括的アプローチであるFP-PETを提案する。
この研究は、最先端のセグメンテーション性能を達成するために、STUNet-large、SwinUNETR、VNetなど、さまざまな機械学習モデルを使用している。
論文 参考訳(メタデータ) (2023-09-22T06:44:28Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - CPET: Effective Parameter-Efficient Tuning for Compressed Large Language
Models [86.63730733413796]
圧縮言語モデル(LLM)に基づく効果的なPETフレームワークを提案する。
主流圧縮技術がPET性能に与える影響を評価する。
次に,これらの圧縮技術によって引き起こされる知識損失を回復するために,知識継承と回復戦略を導入する。
論文 参考訳(メタデータ) (2023-07-15T04:37:11Z) - Exploring the Impact of Model Scaling on Parameter-Efficient Tuning [100.61202305296275]
大規模事前学習言語モデル(PLM)を効果的に駆動できるスケーリング効率チューニング(PET)法
小型PLMでは、PET法には通常顕著な性能差がある。
本稿では,Arbitrary PET (APET) 法という,より柔軟なPET法を提案する。
論文 参考訳(メタデータ) (2023-06-04T10:10:54Z) - Application of the YOLOv5 Model for the Detection of Microobjects in the
Marine Environment [101.18253437732933]
海洋環境における微小物体の自動検出と認識の問題を解決するためのYOLOV5機械学習モデルの有効性について検討した。
論文 参考訳(メタデータ) (2022-11-28T10:58:50Z) - Physics-driven Deep Learning for PET/MRI [2.2113800586902608]
我々は,同時ポジトロン放射トモグラフィ(PET)/磁気共鳴イメージング(MRI)システムのための物理・データ駆動型再構成技術について概説する。
これらの再構成手法は、構造的または統計的に、PETシステム応答の物理に基づく記述とともに、事前を利用する。
我々は,3次元PET/MRIの再構成において,多面的アプローチがハイブリッドデータと物理駆動機械学習にどのように対応しているかを明らかにする。
論文 参考訳(メタデータ) (2022-06-11T21:35:27Z) - Semi-Supervised Exaggeration Detection of Health Science Press Releases [23.930041685595775]
近年の研究では、研究結果を誇張することで、メディアが科学論文を誤って表現する傾向が示されている。
本稿では,科学コミュニケーションにおける誇張検出問題の形式化と研究について述べる。
本稿では,補完的なクローゼスタイルのQAタスクからの知識を活用し,数発の学習を改善する多タスク版であるMT-PETを紹介する。
論文 参考訳(メタデータ) (2021-08-30T19:32:20Z) - Reproducibility Companion Paper: Knowledge Enhanced Neural Fashion Trend
Forecasting [78.046352507802]
Python実装を使用した実験の複製を可能にするアーティファクトを提供する。
本稿では,本論文で実施した実験を再現し,前報と同様の性能を得る。
論文 参考訳(メタデータ) (2021-05-25T10:53:11Z) - Predictive modeling approaches in laser-based material processing [59.04160452043105]
本研究の目的は,レーザー加工が材料構造に及ぼす影響を自動予測することである。
その焦点は、統計的および機械学習の代表的なアルゴリズムのパフォーマンスに焦点を当てている。
結果は、材料設計、テスト、生産コストを削減するための体系的な方法論の基礎を設定することができる。
論文 参考訳(メタデータ) (2020-06-13T17:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。