論文の概要: Parameter Efficient Fine Tuning for Multi-scanner PET to PET Reconstruction
- arxiv url: http://arxiv.org/abs/2407.07517v1
- Date: Wed, 10 Jul 2024 10:12:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 17:11:48.784381
- Title: Parameter Efficient Fine Tuning for Multi-scanner PET to PET Reconstruction
- Title(参考訳): 多走査PETのPET再構成におけるパラメータ効率の良い微調整法
- Authors: Yumin Kim, Gayoon Choi, Seong Jae Hwang,
- Abstract要約: 潜在能力に感銘を受ける。
PEFT (Efficient Fine-Tuning, PEFT) は, PEFTを有効活用して限られたデータを改善することを目的としている。
本稿ではPETITEについて紹介する。
MultI-Scanner PET と PET Reconstruction の効率的なファインチューニングは、パラメータの1%未満を使用する。
- 参考スコア(独自算出の注目度): 3.74142789780782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reducing scan time in Positron Emission Tomography (PET) imaging while maintaining high-quality images is crucial for minimizing patient discomfort and radiation exposure. Due to the limited size of datasets and distribution discrepancy across scanners in medical imaging, fine-tuning in a parameter-efficient and effective manner is on the rise. Motivated by the potential of Parameter-Efficient Fine-Tuning (PEFT), we aim to address these issues by effectively leveraging PEFT to improve limited data and GPU resource issues in multi-scanner setups. In this paper, we introduce PETITE, Parameter-Efficient Fine-Tuning for MultI-scanner PET to PET REconstruction that uses fewer than 1% of the parameters. To the best of our knowledge, this study is the first to systematically explore the efficacy of diverse PEFT techniques in medical imaging reconstruction tasks via prevalent encoder-decoder-type deep models. This investigation, in particular, brings intriguing insights into PETITE as we show further improvements by treating encoder and decoder separately and mixing different PEFT methods, namely, Mix-PEFT. Using multi-scanner PET datasets comprised of five different scanners, we extensively test the cross-scanner PET scan time reduction performances (i.e., a model pre-trained on one scanner is fine-tuned on a different scanner) of 21 feasible Mix-PEFT combinations to derive optimal PETITE. We show that training with less than 1% parameters using PETITE performs on par with full fine-tuning (i.e., 100% parameter)
- Abstract(参考訳): ポジトロン・エミッション・トモグラフィ(PET)画像における高画質画像のスキャン時間短縮は,患者の不快感と放射線曝露を最小限にするために重要である。
医用画像におけるデータセットのサイズやスキャナー間の分布差が限られているため、パラメータ効率と効果的な方法による微調整が増加している。
パラメータ効率のよいファインチューニング(PEFT)の可能性に触発されて,PEFTを効果的に活用して,マルチスキャナ・セットアップにおける限られたデータやGPUリソースの問題を改善することを目指す。
本稿では,MultI-Scanner PET のためのパラメータ効率の良いファインチューニング PETITE を 1% 未満のパラメータを用いたPET再構成に導入する。
本研究は,医療画像再構成における多種多様なPEFT技術の有効性を,一般的なエンコーダ・デコーダ型深層モデルを用いて体系的に検討した最初の試みである。
特に本研究では,エンコーダとデコーダを別々に扱い,異なるPEFT法,すなわちMix-PEFTを混合することにより,PETITEに興味深い洞察をもたらす。
5つの異なるスキャナからなるマルチスキャナPETデータセットを用いて、最適なPETITEを導出するために、21の可能なMix-PEFT組み合わせのクロススキャナPETスキャン時間短縮性能(例えば、1つのスキャナで事前トレーニングされたモデルは、別のスキャナで微調整されている)を広範囲にテストした。
PETITEを用いた1%未満のパラメータによるトレーニングは、完全な微調整(100%パラメータ)と同等に実行されることを示す。
関連論文リスト
- Diffusion Transformer Model With Compact Prior for Low-dose PET Reconstruction [7.320877150436869]
低線量PET画像の再構成品質を高めるために,JCP(Joint compact prior)により導かれる拡散変圧器モデルを提案する。
DTMは拡散モデルの強力な分布マッピング能力と変圧器の容量を組み合わせて長距離依存を捉える。
本手法は放射線曝露リスクを軽減するだけでなく,早期診断や患者管理のためのPETイメージングツールも提供する。
論文 参考訳(メタデータ) (2024-07-01T03:54:43Z) - PEMMA: Parameter-Efficient Multi-Modal Adaptation for Medical Image Segmentation [5.056996354878645]
CTとPETの両方のスキャンが利用可能であれば、それらをセグメンテーションモデルへの入力の2つのチャネルとして組み合わせることが一般的である。
この方法は、トレーニングと推論の両方のスキャンタイプを必要とし、PETスキャンの可用性が制限されているため、課題を提起する。
変圧器を用いたセグメンテーションモデルの軽量アップグレードのためのパラメータ効率・マルチモーダル適応フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-21T16:29:49Z) - Two-Phase Multi-Dose-Level PET Image Reconstruction with Dose Level Awareness [43.45142393436787]
線量レベルの認識が可能な新しい二相多段PET再構成アルゴリズムを設計する。
事前学習フェーズは、きめ細かい識別特徴と効果的な意味表現の両方を探索するために考案された。
SPET予測フェーズは、事前学習した線量レベルを利用した粗い予測ネットワークを採用して予備結果を生成する。
論文 参考訳(メタデータ) (2024-04-02T01:57:08Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Exploring the Impact of Model Scaling on Parameter-Efficient Tuning [100.61202305296275]
大規模事前学習言語モデル(PLM)を効果的に駆動できるスケーリング効率チューニング(PET)法
小型PLMでは、PET法には通常顕著な性能差がある。
本稿では,Arbitrary PET (APET) 法という,より柔軟なPET法を提案する。
論文 参考訳(メタデータ) (2023-06-04T10:10:54Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - Sparse Structure Search for Parameter-Efficient Tuning [85.49094523664428]
S$3$PETは、トレーニング可能なパラメータの少ない手動およびランダムな構造を超えることを示す。
探索された構造は、0.01%のトレーニング可能なパラメータで99%以上の微調整性能を維持している。
論文 参考訳(メタデータ) (2022-06-15T08:45:21Z) - Synthesizing Multi-Tracer PET Images for Alzheimer's Disease Patients
using a 3D Unified Anatomy-aware Cyclic Adversarial Network [9.406405460188818]
ポジトロン・エミッション・トモグラフィー(PET)はアルツハイマー病(AD)研究の重要なツールである
医用画像合成の研究は1対1の固定ドメイン翻訳に重点を置いており、マルチトレースドメインから同時にその特徴を学習することはできない。
本稿では,複数経路PETボリュームを1つの統一的生成モデルで翻訳するための3次元統一解剖・循環対向ネットワーク (UCAN) を提案する。
論文 参考訳(メタデータ) (2021-07-12T15:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。