論文の概要: GPT-PPG: A GPT-based Foundation Model for Photoplethysmography Signals
- arxiv url: http://arxiv.org/abs/2503.08015v1
- Date: Tue, 11 Mar 2025 03:45:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 19:17:18.582666
- Title: GPT-PPG: A GPT-based Foundation Model for Photoplethysmography Signals
- Title(参考訳): GPT-PPG:光胸腺X線信号の基礎モデル
- Authors: Zhaoliang Chen, Cheng Ding, Saurabh Kataria, Runze Yan, Minxiao Wang, Randall Lee, Xiao Hu,
- Abstract要約: 本研究では,光胸腺造影(PPG)信号に適したGPTモデルを提案する。
PPG信号の連続特性に適合する標準GPTアーキテクチャを適用することで,提案手法は有望な結果を示す。
- 参考スコア(独自算出の注目度): 9.441062271747853
- License:
- Abstract: This study introduces a novel application of a Generative Pre-trained Transformer (GPT) model tailored for photoplethysmography (PPG) signals, serving as a foundation model for various downstream tasks. Adapting the standard GPT architecture to suit the continuous characteristics of PPG signals, our approach demonstrates promising results. Our models are pre-trained on our extensive dataset that contains more than 200 million 30s PPG samples. We explored different supervised fine-tuning techniques to adapt our model to downstream tasks, resulting in performance comparable to or surpassing current state-of-the-art (SOTA) methods in tasks like atrial fibrillation detection. A standout feature of our GPT model is its inherent capability to perform generative tasks such as signal denoising effectively, without the need for further fine-tuning. This success is attributed to the generative nature of the GPT framework.
- Abstract(参考訳): 本研究では,光胸腺造影(PPG)信号に適したGPTモデルを提案する。
PPG信号の連続特性に適合する標準GPTアーキテクチャを適用することで,提案手法は有望な結果を示す。
私たちのモデルは、2億以上のPSGサンプルを含む広範囲なデータセットで事前トレーニングされています。
その結果、心房細動検出などのタスクにおいて、現在のSOTA(State-of-the-art)手法に匹敵する、あるいは超越したパフォーマンスが得られる。
GPTモデルの特長は、さらなる微調整を必要とせず、信号復調などの生成タスクを効果的に行う能力である。
この成功はGPTフレームワークの生成性に起因する。
関連論文リスト
- Can We Generate Images with CoT? Let's Verify and Reinforce Image Generation Step by Step [77.86514804787622]
CoT(Chain-of-Thought)推論は、複雑な理解タスクに取り組むために大規模なモデルで広く研究されている。
自己回帰画像生成を促進するために,CoT推論の可能性について,初めて包括的調査を行った。
本稿では,自動回帰画像生成に特化したPARMとPARM++を提案する。
論文 参考訳(メタデータ) (2025-01-23T18:59:43Z) - PaPaGei: Open Foundation Models for Optical Physiological Signals [8.78925327256804]
光胸腺撮影は生体信号と心臓血管の健康をモニタリングする主要な非侵襲的手法である。
PPG信号に基づいて訓練された機械学習モデルは、タスク固有であり、一般化に苦慮する傾向がある。
PPG信号のための最初のオープン基盤モデルPaPaGeiを提案する。
論文 参考訳(メタデータ) (2024-10-27T18:18:06Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Continual Learning for Remote Physiological Measurement: Minimize Forgetting and Simplify Inference [4.913049603343811]
既存のr測定手法は、しばしば漸進的な学習シナリオを見落としている。
既存のクラスインクリメンタルな学習アプローチはr測定には適していない。
r測定のための連続学習に取り組むためにADDPという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T01:49:09Z) - Fully Test-Time rPPG Estimation via Synthetic Signal-Guided Feature Learning [8.901227918730562]
TestTime Adaptation (TTA)では、ソースデータを参照することなく、ラベルのないターゲットデータにオンライン適応することで、さまざまな未確認領域のr信号を適応的に推定することができる。
擬似基底真理として、擬似r信号を用いた合成信号誘導特徴学習法を開発し、潜在r特徴を生成する条件生成装置を誘導する。
論文 参考訳(メタデータ) (2024-07-18T09:22:40Z) - GPT vs RETRO: Exploring the Intersection of Retrieval and Parameter-Efficient Fine-Tuning [48.71952325015267]
PEFT法を改良型Retrieval-Enhanced Transformer (RETRO) およびベースラインGPTモデルに適用する。
本稿では、RETROモデルが、独自の事前学習プロセスにより、ゼロショット設定でGPTモデルより優れていることを示す。
本研究は, GPTモデルとRETROモデルの両方に適用された各種PEFT法をRAGと統合した最初の包括的比較である。
論文 参考訳(メタデータ) (2024-07-05T14:16:47Z) - SentimentGPT: Exploiting GPT for Advanced Sentiment Analysis and its
Departure from Current Machine Learning [5.177947445379688]
本研究は,感情分析における各種生成事前変換器(GPT)手法の徹底的な検討である。
1) 先進型GPT-3.5ターボを用いた迅速なエンジニアリング,2) 微調整型GPTモデル,3) 組込み分類への革新的アプローチの3つの戦略が採用されている。
この研究は、これらの戦略と個々のGPTモデルの間で詳細な比較洞察を与え、そのユニークな強みと潜在的な制限を明らかにしている。
論文 参考訳(メタデータ) (2023-07-16T05:33:35Z) - Efficient GPT Model Pre-training using Tensor Train Matrix
Representation [65.96485282393361]
大規模なトランスフォーマーモデルは数十億のパラメータを特徴としており、デプロイが困難になり、スクラッチからトレーニングコストが禁じられている。
GPT-2アーキテクチャのパラメータ数を削減すべく、完全に接続された層の行列を対応するTrain Matrix(TTM)構造に置き換える。
GPTベースのモデルは最大40%のパラメータを格納し、元のモデルに匹敵するパープレキシティを示す。
論文 参考訳(メタデータ) (2023-06-05T08:38:25Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - GOHSP: A Unified Framework of Graph and Optimization-based Heterogeneous
Structured Pruning for Vision Transformer [76.2625311630021]
視覚変換器(ViT)は、様々なコンピュータビジョンタスクにおいて非常に印象的な経験的性能を示している。
この問題を緩和するために、構造化プルーニングはモデルサイズを圧縮し、実用的な効率を実現するための有望な解決策である。
グラフと最適化に基づく構造的プルーニング(Structured Pruning)を統合化したフレームワークであるGOHSPを提案する。
論文 参考訳(メタデータ) (2023-01-13T00:40:24Z) - Kronecker Decomposition for GPT Compression [8.60086973058282]
GPTは自動回帰トランスフォーマーベースの事前学習言語モデルであり、自然言語処理(NLP)分野において多くの注目を集めている。
GPTの性能は優れているが、GPTはこのモデルを限られた計算能力やメモリを持つデバイスに展開することを非常に禁じることができる。
本研究では, GPT-22モデルの線形写像を圧縮するためにKronecker分解を用いる。
論文 参考訳(メタデータ) (2021-10-15T15:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。