論文の概要: Tiny-HR: Towards an interpretable machine learning pipeline for heart
rate estimation on edge devices
- arxiv url: http://arxiv.org/abs/2208.07981v1
- Date: Tue, 16 Aug 2022 22:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:38:54.981010
- Title: Tiny-HR: Towards an interpretable machine learning pipeline for heart
rate estimation on edge devices
- Title(参考訳): Tiny-HR:エッジデバイス上での心拍推定のための解釈可能な機械学習パイプラインを目指して
- Authors: Preetam Anbukarasu, Shailesh Nanisetty, Ganesh Tata and Nilanjan Ray
- Abstract要約: 本稿では,低消費電力エッジデバイスで取得した圧力センサデータから心拍数を抽出する機械学習(ML)パイプラインの概念実証を行う。
このパイプラインは、アップサンプラーニューラルネットワーク、信号品質分類器、効率的かつ正確な心拍数推定に最適化された1D畳み込みニューラルネットワークで構成されている。
その結果,提案したMLパイプラインとハイブリッドパイプラインは,従来のアルゴリズムに比べて82%と28%のエネルギーと時間を削減できることがわかった。
- 参考スコア(独自算出の注目度): 6.59529078336196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The focus of this paper is a proof of concept, machine learning (ML) pipeline
that extracts heart rate from pressure sensor data acquired on low-power edge
devices. The ML pipeline consists an upsampler neural network, a signal quality
classifier, and a 1D-convolutional neural network optimized for efficient and
accurate heart rate estimation. The models were designed so the pipeline was
less than 40 kB. Further, a hybrid pipeline consisting of the upsampler and
classifier, followed by a peak detection algorithm was developed. The pipelines
were deployed on ESP32 edge device and benchmarked against signal processing to
determine the energy usage, and inference times. The results indicate that the
proposed ML and hybrid pipeline reduces energy and time per inference by 82%
and 28% compared to traditional algorithms. The main trade-off for ML pipeline
was accuracy, with a mean absolute error (MAE) of 3.28, compared to 2.39 and
1.17 for the hybrid and signal processing pipelines. The ML models thus show
promise for deployment in energy and computationally constrained devices.
Further, the lower sampling rate and computational requirements for the ML
pipeline could enable custom hardware solutions to reduce the cost and energy
needs of wearable devices.
- Abstract(参考訳): 本論文は,低消費電力エッジデバイスで取得した圧力センサデータから心拍数を抽出する機械学習(ML)パイプラインの概念実証である。
mlパイプラインはアップサンプラーニューラルネットワーク、信号品質分類器、効率良く正確な心拍数推定に最適化された1d畳み込みニューラルネットワークで構成される。
モデルは設計され、パイプラインは40kb未満であった。
さらに、アップサンプラーと分類器からなるハイブリッドパイプラインを開発し、次いでピーク検出アルゴリズムを開発した。
パイプラインはESP32エッジデバイス上に展開され、信号処理に対してベンチマークを行い、エネルギー使用量と推定時間を測定した。
その結果,提案したMLパイプラインとハイブリッドパイプラインは,従来のアルゴリズムに比べて82%と28%のエネルギーと時間を削減できることがわかった。
MLパイプラインの主なトレードオフは、平均絶対誤差(MAE)が3.28であり、ハイブリッドおよび信号処理パイプラインでは2.39と1.17であった。
したがって、MLモデルはエネルギーと計算に制約のあるデバイスへの展開を約束する。
さらに、MLパイプラインのサンプリングレートと計算要求の低さにより、カスタムハードウェアソリューションにより、ウェアラブルデバイスのコストとエネルギー需要を削減できる。
関連論文リスト
- Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Implementing Neural Network-Based Equalizers in a Coherent Optical
Transmission System Using Field-Programmable Gate Arrays [3.1543509940301946]
我々は、コヒーレント光伝送システムにおける非線形性補償のための、リカレントおよびフィードフォワードニューラルネットワーク(NN)ベースの等化器のオフラインFPGA実現について述べる。
主な結果は、性能比較、アクティベーション関数の実装方法の分析、ハードウェアの複雑さに関するレポートの3つに分けられる。
論文 参考訳(メタデータ) (2022-12-09T07:28:45Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Sound Event Classification in an Industrial Environment: Pipe Leakage
Detection Use Case [3.9414768019101682]
産業環境におけるパイプ漏れ検出のための多段階機械学習パイプラインを提案する。
提案されたパイプラインは複数のステップを適用し、それぞれが環境の課題に対処する。
その結果, 精度99%, F1スコア0.93, 0.9の優れた結果が得られた。
論文 参考訳(メタデータ) (2022-05-05T15:26:22Z) - On the Tradeoff between Energy, Precision, and Accuracy in Federated
Quantized Neural Networks [68.52621234990728]
無線ネットワーク上でのフェデレーション学習(FL)は、精度、エネルギー効率、精度のバランスをとる必要がある。
本稿では,ローカルトレーニングとアップリンク伝送の両方において,有限レベルの精度でデータを表現できる量子化FLフレームワークを提案する。
我々のフレームワークは標準的なFLモデルと比較してエネルギー消費量を最大53%削減できる。
論文 参考訳(メタデータ) (2021-11-15T17:00:03Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Predicting pigging operations in oil pipelines [0.0]
本稿では,石油トランクラインにおける養豚作業の自動予測を行うための,革新的な機械学習手法を提案する。
歴史的圧力信号は、北イタリアにある石油パイプライン(長さ100km、直径16インチのパイプ)に沿って、エニによって2年間収集されてきた。
ライン上で実行された履歴的な豚の操作を自動的にハイライトするために、ツールが実装されている。
論文 参考訳(メタデータ) (2021-09-24T08:49:33Z) - Bringing AI pipelines onto cloud-HPC: setting a baseline for accuracy of
COVID-19 AI diagnosis [5.313553229474047]
私たちは、"CLAIRE COVID-19 Universal Pipeline"と呼ばれるパラメトリックパイプラインを定義する重要な要素としてStreamFlow Management Systemを提唱します。
このパイプラインは、新型コロナウイルス(COVID-19)の肺病変をCTスキャンから分類し、それらを精度で比較し、パフォーマンスベースラインを設定する最適化方法を探索することができる。
StreamFlowで設計されたパイプラインのポータビリティ・バイ・デザインのおかげで、従来のHPCインフラストラクチャで見られる膨大な計算能力が必要になります。
論文 参考訳(メタデータ) (2021-08-02T16:45:00Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Physics and Computing Performance of the Exa.TrkX TrackML Pipeline [0.0]
本論文では、Exa.TrkXパイプラインの物理性能と計算性能を研究するために必要な開発を文書化する。
パイプラインは、生産追跡アルゴリズムに似たトラッキング効率と純度を実現します。
論文 参考訳(メタデータ) (2021-03-11T23:10:18Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。