論文の概要: Towards Characterizing Knowledge Distillation of PPG Heart Rate Estimation Models
- arxiv url: http://arxiv.org/abs/2511.18829v1
- Date: Mon, 24 Nov 2025 07:06:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.068393
- Title: Towards Characterizing Knowledge Distillation of PPG Heart Rate Estimation Models
- Title(参考訳): PPG心拍推定モデルの知識蒸留特性評価に向けて
- Authors: Kanav Arora, Girish Narayanswamy, Shwetak Patel, Richard Li,
- Abstract要約: ウェアラブルデバイスが生成する光胸腺画像からの心拍数推定は、個人の健康と幸福に重大な影響を及ぼす。
本研究では, 実時間推定に適した小型モデルに対して, 事前学習したPSGモデルをどのように蒸留するかを探索し, 特徴付ける。
本稿では,モデルサイズと性能の関係を記述したスケーリング法則の特性について述べる。
- 参考スコア(独自算出の注目度): 2.323036836370353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Heart rate estimation from photoplethysmography (PPG) signals generated by wearable devices such as smartwatches and fitness trackers has significant implications for the health and well-being of individuals. Although prior work has demonstrated deep learning models with strong performance in the heart rate estimation task, in order to deploy these models on wearable devices, these models must also adhere to strict memory and latency constraints. In this work, we explore and characterize how large pre-trained PPG models may be distilled to smaller models appropriate for real-time inference on the edge. We evaluate four distillation strategies through comprehensive sweeps of teacher and student model capacities: (1) hard distillation, (2) soft distillation, (3) decoupled knowledge distillation (DKD), and (4) feature distillation. We present a characterization of the resulting scaling laws describing the relationship between model size and performance. This early investigation lays the groundwork for practical and predictable methods for building edge-deployable models for physiological sensing.
- Abstract(参考訳): スマートウォッチやフィットネストラッカーなどのウェアラブルデバイスが生成する光胸腺撮影(PPG)信号からの心拍数推定は、個人の健康や健康に重大な影響を及ぼす。
これまでの研究は、心拍推定タスクで強力なパフォーマンスを持つディープラーニングモデルを実証してきたが、これらのモデルをウェアラブルデバイスにデプロイするには、厳格なメモリとレイテンシの制約にも従わなければならない。
本研究では, 実時間推定に適した小型モデルに対して, 事前学習したPSGモデルをどのように蒸留するかを探索し, 特徴付ける。
我々は,(1)ハード蒸留,(2)ソフト蒸留,(3)デカップリングドナレッジ蒸留(DKD),(4)特徴蒸留という,教師と学生のモデル能力の包括的網羅的活用を通じて,4つの蒸留戦略を評価する。
本稿では,モデルサイズと性能の関係を記述したスケーリング法則の特性について述べる。
この初期の調査は、生理学的センシングのためのエッジ展開可能なモデルを構築するための実用的で予測可能な方法の基礎となる。
関連論文リスト
- Why Knowledge Distillation Works in Generative Models: A Minimal Working Explanation [50.784080714897776]
知識蒸留(KD)は、現代の生産モデルの訓練と展開における中核的な要素である。
我々は,KDが学生モデルにおける精度とリコールのトレードオフを引き起こすことを示す。
本分析は、生成モデルにおけるKDの有効性について、単純かつ一般的な説明を提供する。
論文 参考訳(メタデータ) (2025-05-19T13:39:47Z) - ArrhythmiaVision: Resource-Conscious Deep Learning Models with Visual Explanations for ECG Arrhythmia Classification [0.0]
本稿では,エッジデバイス上での効率的なリアルタイム不整脈分類に最適化されたArrhythmiNet V1とV2を提案する。
MobileNetの深い分離可能な畳み込み設計にインスパイアされたこれらのモデルは、それぞれ302.18KBと157.76KBのメモリフットプリントを維持している。
本研究は, 実用, ウェアラブル, 組込みECGモニタリングシステムにおいて, 解釈可能性, 予測精度, 計算効率の両立の可能性を示すものである。
論文 参考訳(メタデータ) (2025-04-30T18:22:45Z) - Finetuning and Quantization of EEG-Based Foundational BioSignal Models on ECG and PPG Data for Blood Pressure Estimation [46.36100528165335]
光胸腺撮影と心電図は、連続血圧モニタリング(BP)を可能にする可能性がある。
しかし、データ品質と患者固有の要因の変化のため、正確で堅牢な機械学習(ML)モデルは依然として困難である。
本研究では,1つのモータリティで事前学習したモデルを効果的に利用して,異なる信号タイプの精度を向上させる方法について検討する。
本手法は, 拡張期BPの最先端精度を約1.5倍に向上し, 拡張期BPの精度を1.5倍に向上させる。
論文 参考訳(メタデータ) (2025-02-10T13:33:12Z) - Optimizing OOD Detection in Molecular Graphs: A Novel Approach with Diffusion Models [71.39421638547164]
本稿では,入力分子と再構成グラフの類似性を比較する補助拡散モデルに基づくフレームワークを用いてOOD分子を検出することを提案する。
IDトレーニングサンプルの再構成に向けた生成バイアスのため、OOD分子の類似度スコアは検出を容易にするためにはるかに低い。
本研究は,PGR-MOOD(PGR-MOOD)とよばれる分子OOD検出のためのプロトタイプグラフ再構成のアプローチを開拓し,3つのイノベーションを生かした。
論文 参考訳(メタデータ) (2024-04-24T03:25:53Z) - Can Attention Be Used to Explain EHR-Based Mortality Prediction Tasks: A
Case Study on Hemorrhagic Stroke [33.08002675910282]
ストロークは死亡率と致死性の重大な原因であり、リスクを最小限に抑えるために早期予測戦略を必要とする。
従来の患者評価法は、精度と解釈可能性に制限がある。
本稿では,早期脳卒中死亡予測のための,解釈可能な注意に基づく変圧器モデルを提案する。
論文 参考訳(メタデータ) (2023-08-04T04:28:07Z) - Deep Prototypical-Parts Ease Morphological Kidney Stone Identification
and are Competitively Robust to Photometric Perturbations [0.9236074230806579]
腎結石サブタイプ当たりのプロトタイプ部分(PP)を学習し,出力分類を生成する。
我々の実装の平均精度は、最先端(SOTA)非解釈可能なDLモデルよりも1.5%低い。
本モデルでは, 対向訓練を伴わずに, 標準偏差の低い摂動画像を2.8%向上させる。
論文 参考訳(メタデータ) (2023-04-08T17:43:31Z) - Knowledge Distillation for Adaptive MRI Prostate Segmentation Based on
Limit-Trained Multi-Teacher Models [4.711401719735324]
圧縮法と加速技術として知識蒸留(KD)が提案されている。
KDは、負担の多いモデルから軽量モデルに知識を移行できる効率的な学習戦略である。
本研究では,KDに基づく前立腺MRIセグメンテーションの深部モデルを構築し,Kellback-Leiblerの発散,Lovasz,Diceの損失と特徴量に基づく蒸留を組み合わせる。
論文 参考訳(メタデータ) (2023-03-16T17:15:08Z) - EmbedDistill: A Geometric Knowledge Distillation for Information
Retrieval [83.79667141681418]
大規模なニューラルモデル(トランスフォーマーなど)は、情報検索(IR)のための最先端のパフォーマンスを達成する
本研究では,大規模教師モデルで学習したクエリとドキュメント間の相対的幾何を利用した新しい蒸留手法を提案する。
提案手法は, 両エンコーダ (DE) とクロスエンコーダ (CE) の2種類の教師モデルから, 95~97%の教師性能を維持できる1/10の非対称な学生への蒸留に成功した。
論文 参考訳(メタデータ) (2023-01-27T22:04:37Z) - Efficient Remote Photoplethysmography with Temporal Derivative Modules
and Time-Shift Invariant Loss [6.381149074212898]
遠隔心拍推定のための軽量ニューラルネットワークを提案する。
我々は,顔面光胸腺撮影の時間的学習に焦点をあてる。
既存モデルと比較して,本手法では,パラメータ数が大幅に少なく,計算コストが低く,競合精度が向上している。
論文 参考訳(メタデータ) (2022-03-21T11:08:06Z) - On the benefits of knowledge distillation for adversarial robustness [53.41196727255314]
知識蒸留は, 対向ロバスト性において, 最先端モデルの性能を高めるために直接的に利用できることを示す。
本稿では,モデルの性能向上のための新しいフレームワークであるAdversarial Knowledge Distillation (AKD)を提案する。
論文 参考訳(メタデータ) (2022-03-14T15:02:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。