論文の概要: Dual Prompting for Diverse Count-level PET Denoising
- arxiv url: http://arxiv.org/abs/2505.03037v1
- Date: Mon, 05 May 2025 21:27:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.134044
- Title: Dual Prompting for Diverse Count-level PET Denoising
- Title(参考訳): 異種PET用デュアルプロンプト
- Authors: Xiaofeng Liu, Yongsong Huang, Thibault Marin, Samira Vafay Eslahi, Tiss Amal, Yanis Chemli, Keith Johnson, Georges El Fakhri, Jinsong Ouyang,
- Abstract要約: 本稿では,PETを分割・縮小的に誘導する2つのプロンプトを提案する。
不均一なプロンプトを統一するために新規なプロンプト融合モジュールが開発された。
プロンプトは、ノイズ条件付き遮音処理を動的に導くことができる。
- 参考スコア(独自算出の注目度): 6.97057750063686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The to-be-denoised positron emission tomography (PET) volumes are inherent with diverse count levels, which imposes challenges for a unified model to tackle varied cases. In this work, we resort to the recently flourished prompt learning to achieve generalizable PET denoising with different count levels. Specifically, we propose dual prompts to guide the PET denoising in a divide-and-conquer manner, i.e., an explicitly count-level prompt to provide the specific prior information and an implicitly general denoising prompt to encode the essential PET denoising knowledge. Then, a novel prompt fusion module is developed to unify the heterogeneous prompts, followed by a prompt-feature interaction module to inject prompts into the features. The prompts are able to dynamically guide the noise-conditioned denoising process. Therefore, we are able to efficiently train a unified denoising model for various count levels, and deploy it to different cases with personalized prompts. We evaluated on 1940 low-count PET 3D volumes with uniformly randomly selected 13-22\% fractions of events from 97 $^{18}$F-MK6240 tau PET studies. It shows our dual prompting can largely improve the performance with informed count-level and outperform the count-conditional model.
- Abstract(参考訳): To-be-denoized positron emission tomography (PET)ボリュームは、様々な数のレベルに固有のものであり、様々なケースに対処するための統一モデルの課題を課している。
本研究は,近年盛んに行われている即興学習を活用して,数レベルの異なる一般化可能なPETデノナイズを実現する。
具体的には,PETデノケーションを分割・コンカレントにガイドする2つのプロンプト,すなわち,特定の事前情報を提供するための明示的なカウントレベルプロンプトと,本質的なPETデノケーション知識をエンコードする暗黙的に一般のデノケーションプロンプトを提案する。
そして、不均一なプロンプトを統一する新規なプロンプト融合モジュールを開発し、その後、プロンプトを特徴物に注入するプロンプト-機能相互作用モジュールを作成する。
プロンプトは、ノイズ条件付き遮音処理を動的に導くことができる。
そこで我々は,様々な数レベルの統一型認知モデルを効率的に訓練し,パーソナライズされたプロンプトで異なるケースにデプロイすることができる。
1940年, 97$^{18}$F-MK6240 Tau PET 研究から, ランダムに選択した13-22 % のイベントを多量に選択した低数PET 3Dボリュームについて検討した。
二重プロンプトは、インフォームドカウントレベルでの性能を大幅に改善し、カウント条件モデルより優れていることを示す。
関連論文リスト
- Enhance Vision-Language Alignment with Noise [59.2608298578913]
本研究では,凍結モデルがカスタマイズノイズによって微調整可能であるか検討する。
ビジュアルエンコーダとテキストエンコーダの両方にノイズを注入することでCLIPを微調整できる正インセンティブノイズ(PiNI)を提案する。
論文 参考訳(メタデータ) (2024-12-14T12:58:15Z) - Volumetric Conditional Score-based Residual Diffusion Model for PET/MR Denoising [13.694516702501097]
PETイメージングは、分子および生理過程の定量的評価を提供する強力なモダリティである。
PET画像における内在性高ノイズレベルからPET脱ノイズの必要性が生じる。
条件スコアに基づくResidual Diffusion(CSRD)モデルでは,高精細なスコア関数と3Dパッチワイドトレーニング戦略を取り入れることで,これらの問題に対処する。
論文 参考訳(メタデータ) (2024-09-30T19:35:22Z) - Transducers with Pronunciation-aware Embeddings for Automatic Speech Recognition [22.85601673705489]
PETモデルでは従来のトランスデューサに比べて音声認識精度が常に向上していることを示す。
PETモデルは、この問題を効果的に軽減し、モデルが以前のモデルに続く追加エラーを発生させる可能性を大幅に低減する。
論文 参考訳(メタデータ) (2024-04-04T17:03:47Z) - ConPET: Continual Parameter-Efficient Tuning for Large Language Models [65.48107393731861]
継続的な学習には、新しいタスクへのモデルの継続的な適応が必要である。
継続性を提案する。
効率的なチューニング(ConPET) - 一般化可能なパラダイム。
大規模言語モデルの連続的なタスク適応。
論文 参考訳(メタデータ) (2023-09-26T08:52:04Z) - DiffSED: Sound Event Detection with Denoising Diffusion [70.18051526555512]
生成学習の観点からSED問題を再構築する。
具体的には,騒音拡散過程において,雑音のある提案から音の時間境界を生成することを目的としている。
トレーニング中は,ノイズの多い遅延クエリを基本バージョンに変換することで,ノイズ発生過程の逆転を学習する。
論文 参考訳(メタデータ) (2023-08-14T17:29:41Z) - A Unified Continual Learning Framework with General Parameter-Efficient
Tuning [56.250772378174446]
「事前学習$rightarrow$ダウンストリーム適応」は、継続学習の新しい機会と課題を提示する。
我々は,PETの1つのインスタンス化としてプロンプトを位置づけ,ラーニング・アキュミュレーション・アンサンブル(LAE)と呼ばれる統一的なCLフレームワークを提案する。
PET(Adapter、LoRA、Prefixなど)は、トレーニング済みのモデルをより少ないパラメータとリソースで下流のタスクに適応させることができる。
論文 参考訳(メタデータ) (2023-03-17T15:52:45Z) - DiffGAN-TTS: High-Fidelity and Efficient Text-to-Speech with Denoising
Diffusion GANs [39.388599580262614]
DiffGAN-TTS(DiffGAN-TTS, DDPM-based text-to-speech)モデルを導入し, 高忠実度音声合成を実現する。
実験の結果,DiffGAN-TTSは1段階のみの高合成性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-01-28T07:41:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。