論文の概要: Synheart Emotion: Privacy-Preserving On-Device Emotion Recognition from Biosignals
- arxiv url: http://arxiv.org/abs/2511.06231v1
- Date: Sun, 09 Nov 2025 05:15:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.825987
- Title: Synheart Emotion: Privacy-Preserving On-Device Emotion Recognition from Biosignals
- Title(参考訳): Synheart Emotion: 生体信号によるデバイス上の感情認識のプライバシ保護
- Authors: Henok Ademtew, Israel Goytom,
- Abstract要約: ほとんどの感情認識システムはクラウドベースの推論に依存しており、リアルタイムアプリケーションには適さないプライバシーの脆弱性とレイテンシの制約を導入している。
本研究は、手首型フォトプレソグラフィーからデバイス上での感情認識のための機械学習アーキテクチャの包括的な評価を行う。
ONNX変換によって最適化された手首のみのExtraTreesモデルをデプロイし,4.08MBのフットプリント,0.05msの推論遅延,オリジナル実装よりも152倍のスピードアップを実現した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-computer interaction increasingly demands systems that recognize not only explicit user inputs but also implicit emotional states. While substantial progress has been made in affective computing, most emotion recognition systems rely on cloud-based inference, introducing privacy vulnerabilities and latency constraints unsuitable for real-time applications. This work presents a comprehensive evaluation of machine learning architectures for on-device emotion recognition from wrist-based photoplethysmography (PPG), systematically comparing different models spanning classical ensemble methods, deep neural networks, and transformers on the WESAD stress detection dataset. Results demonstrate that classical ensemble methods substantially outperform deep learning on small physiological datasets, with ExtraTrees achieving F1 = 0.826 on combined features and F1 = 0.623 on wrist-only features, compared to transformers achieving only F1 = 0.509-0.577. We deploy the wrist-only ExtraTrees model optimized via ONNX conversion, achieving a 4.08 MB footprint, 0.05 ms inference latency, and 152x speedup over the original implementation. Furthermore, ONNX optimization yields a 30.5% average storage reduction and 40.1x inference speedup, highlighting the feasibility of privacy-preserving on-device emotion recognition for real-world wearables.
- Abstract(参考訳): 人間とコンピュータの相互作用は、明示的なユーザー入力だけでなく、暗黙の感情状態も認識するシステムをますます要求する。
多くの感情認識システムはクラウドベースの推論に依存しており、プライバシの脆弱性やレイテンシの制約はリアルタイムアプリケーションには適さない。
本研究は、従来のアンサンブル法、ディープニューラルネットワーク、およびWASADストレス検出データセット上のトランスフォーマーにまたがる様々なモデルを体系的に比較し、手首ベースの光胸部撮影(PPG)からデバイス上での感情認識のための機械学習アーキテクチャの包括的な評価を行う。
その結果,従来のアンサンブル法は,F1 = 0.826,F1 = 0.623,F1 = 0.509-0.577,F1 = 0.509-0.577,F1 = 0.623,F1 = 0.826,F1 = 0.623,F1 = 0.509-0.577,F1 = 0.509-0.577,F1 = 0.509-0.577,Trees,F1 = 0.623,F1 = 0.623,F1 = 0.623,F1 = 0.509-0.577,Trees,F1=0.509-0.577,Trees,Trees,F1,F1 = 0.623,F1= 0.623,F1-0.509-0.577,Trees,Trees,F1,F1,F1,F1,F1,F1-0.509-0.577
ONNX変換によって最適化された手首のみのExtraTreesモデルをデプロイし,4.08MBのフットプリント,0.05msの推論遅延,オリジナル実装よりも152倍のスピードアップを実現した。
さらに、ONNXの最適化により、平均記憶容量が30.5%減少し、推論速度が40.1倍になった。
関連論文リスト
- Neural-Driven Image Editing [51.11173675034121]
従来の画像編集は手動のプロンプトに依存しており、運動制御や言語能力に制限のある個人には労働集約的でアクセスできない。
神経生理学的信号によるハンズフリー画像編集手法であるLoongXを提案する。
LoongXは、23,928の画像編集ペアの包括的なデータセットに基づいてトレーニングされた最先端の拡散モデルを使用している。
論文 参考訳(メタデータ) (2025-07-07T18:31:50Z) - Emotion Detection on User Front-Facing App Interfaces for Enhanced Schedule Optimization: A Machine Learning Approach [0.0]
感情検出に対する2つの補完的アプローチを提示し,評価する。
心電図(ECG)信号から抽出した心拍数(HR)データを用いて、ヴァレンス、オーラル、ドミナンスの感情次元を予測し、複数の機械学習モデルを介してコンピュータ活動を分析し、マウスの動き、クリック、キーストロークパターンなどのきめ細かいユーザーインタラクションに基づいて感情を分類する行動的方法。
実世界のデータセットから得られた我々の比較分析によると、どちらの手法も有効性を示す一方で、コンピュータアクティビティに基づく手法は、特にマウス関連の相互作用において、より優れた一貫性と精度を提供する。
論文 参考訳(メタデータ) (2025-06-24T03:21:46Z) - Neural networks for the prediction of peel force for skin adhesive interface using FEM simulation [0.5731930593343312]
皮膚組織からの接着剥離に必要な最小剥離力を予測するために,ニューラルネットワークを用いたアプローチを提案する。
本モデルでは,厳密な5倍のクロスバリデーションによる精度の検証を行った。
本研究は, 粘着挙動を予測し, 精度を保ちながらシミュレーション時間を著しく短縮する信頼性, 計算効率のよい手法を提案する。
論文 参考訳(メタデータ) (2025-06-09T12:22:00Z) - Interpretable Multi-Task PINN for Emotion Recognition and EDA Prediction [0.0]
本研究では,電場活動(EDA)予測と感情分類を同時に行う新しいマルチタスク物理情報ニューラルネットワーク(PINN)を提案する。
このモデルは、心理学的自己報告特徴(PANASとSAM)と、EDAダイナミクスを表す物理学に着想を得た微分方程式を統合する。
このアーキテクチャは両方のタスクに対して二重出力をサポートし、統一されたマルチタスクフレームワークの下で訓練される。
論文 参考訳(メタデータ) (2025-05-14T03:13:51Z) - Synthetic Data Generation of Body Motion Data by Neural Gas Network for Emotion Recognition [0.9790236766474201]
本研究では,体の動きデータを合成するためのニューラルネットワーク(NGN)アルゴリズムを新たに導入する。
骨格構造トポロジーを学習することで、NGNは神経細胞やガス粒子を体関節に適合させる。
フレームに体姿勢を付けることで、最終的な合成体の動きが現れる。
論文 参考訳(メタデータ) (2025-03-11T13:16:30Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - ETLP: Event-based Three-factor Local Plasticity for online learning with
neuromorphic hardware [105.54048699217668]
イベントベース3要素局所塑性(ETLP)の計算複雑性に明らかな優位性を有する精度の競争性能を示す。
また, 局所的可塑性を用いた場合, スパイキングニューロンの閾値適応, 繰り返しトポロジーは, 時間的構造が豊富な時間的パターンを学習するために必要であることを示した。
論文 参考訳(メタデータ) (2023-01-19T19:45:42Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。