論文の概要: Bridging Generalization and Personalization in Wearable Human Activity Recognition via On-Device Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2508.15413v1
- Date: Thu, 21 Aug 2025 10:08:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.27421
- Title: Bridging Generalization and Personalization in Wearable Human Activity Recognition via On-Device Few-Shot Learning
- Title(参考訳): デバイス上でのFew-Shot学習によるウェアラブルヒューマンアクティビティ認識におけるブリッジの一般化とパーソナライズ
- Authors: Pixi Kang, Julian Moosmann, Mengxi Liu, Bo Zhou, Michele Magno, Paul Lukowicz, Sizhen Bian,
- Abstract要約: 本稿では、まずユーザ間で一般化し、次にデバイス上で直接数ショットの学習を用いて、個々のユーザに対して迅速に適応するハイブリッドフレームワークを提案する。
我々は、エネルギー効率の高いRISC-VベースのGAP9マイクロコントローラ上で、このフレームワークを実装した。
デプロイ後の適応は、それぞれ3.73%、17.38%、および3.70%の一貫性のある精度向上をもたらす。
- 参考スコア(独自算出の注目度): 5.65242403900544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human Activity Recognition (HAR) using wearable devices has advanced significantly in recent years, yet its generalization remains limited when models are deployed to new users. This degradation in performance is primarily due to user-induced concept drift (UICD), highlighting the importance of efficient personalization. In this paper, we present a hybrid framework that first generalizes across users and then rapidly adapts to individual users using few-shot learning directly on-device. By updating only the classifier layer with user-specific data, our method achieves robust personalization with minimal computational and memory overhead. We implement this framework on the energy-efficient RISC-V-based GAP9 microcontroller and validate it across three diverse HAR scenarios: RecGym, QVAR-Gesture, and Ultrasound-Gesture. Post-deployment adaptation yields consistent accuracy improvements of 3.73\%, 17.38\%, and 3.70\% respectively. These results confirm that fast, lightweight, and effective personalization is feasible on embedded platforms, paving the way for scalable and user-aware HAR systems in the wild \footnote{https://github.com/kangpx/onlineTiny2023}.
- Abstract(参考訳): 近年,ウェアラブルデバイスを用いたヒューマンアクティビティ認識(HAR)が著しく進歩している。
この性能低下は、主にユーザ誘発コンセプトドリフト(UICD)によるものであり、効率的なパーソナライゼーションの重要性を強調している。
本稿では,まずユーザを対象とするハイブリッドフレームワークを提案する。
ユーザ固有のデータで分類器層のみを更新することにより、計算とメモリのオーバーヘッドを最小限に抑え、ロバストなパーソナライゼーションを実現する。
本稿では,エネルギー効率の高いRISC-VベースのGAP9マイクロコントローラ上に実装し,RecGym,QVAR-Gesture,Ultrasound-Gestureの3つのHARシナリオで検証する。
デプロイ後の適応は、それぞれ3.73\%、17.38\%、および3.70\%の一貫性のある精度向上をもたらす。
これらの結果は、高速で軽量で効果的なパーソナライズが組み込みプラットフォーム上で実現可能であることを確認し、ワイルドな \footnote{https://github.com/kangpx/onlineTiny2023} におけるスケーラブルでユーザ対応の HAR システムへの道を開いた。
関連論文リスト
- POET: Prompt Offset Tuning for Continual Human Action Adaptation [61.63831623094721]
ユーザと開発者に対して,デバイスモデルに新たなアクションクラスを継続的に追加することで,エクスペリエンスをパーソナライズする機能の提供を目標としています。
我々はこれをプライバシーに配慮した数発の連続的な行動認識として定式化する。
本稿では,新しい時間的学習可能なプロンプトチューニング手法を提案し,グラフニューラルネットワークにこのようなプロンプトチューニングを適用した。
論文 参考訳(メタデータ) (2025-04-25T04:11:24Z) - Spatiotemporal Attention Learning Framework for Event-Driven Object Recognition [1.0445957451908694]
イベントベースの視覚センサは、位置、極性、情報を含むスパースイベントストリームとして、局所ピクセルレベルの強度変化をキャプチャする。
本稿では、CBAM(Contemporalal Block Attention Module)により強化されたVARGGネットワークを利用した、イベントベースのオブジェクト認識のための新しい学習フレームワークを提案する。
提案手法は,従来のVGGモデルと比較してパラメータ数を2.3%削減しつつ,最先端のResNet手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2025-04-01T02:37:54Z) - Contrastive Learning with Auxiliary User Detection for Identifying Activities [2.8132886759540146]
我々は、外的環境設定を考慮に入れた上で、自然的ユーザアクションパフォーマンスの違いの影響に対処することが重要であると論じている。
CLAUDIAはこれらの問題に対処するために設計された新しいフレームワークである。
実世界の3つのCA-HARデータセットに対する評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-10-21T09:04:23Z) - Towards Sustainable Personalized On-Device Human Activity Recognition with TinyML and Cloud-Enabled Auto Deployment [6.9604565273682955]
この研究は、オンデバイスのTinyML駆動コンピューティングとクラウド対応の自動デプロイを組み合わせた新しい組み合わせによって、課題に対処するために設計された、手首のスマートバンドを導入している。
アクティビティクラスを、最小限のキャリブレーションで独自のムーブメントスタイルに調整することができる。
システムはパーソナライズされた設定において、一般化されたモデルよりも精度が37%向上する。
論文 参考訳(メタデータ) (2024-08-26T13:28:41Z) - Agile gesture recognition for low-power applications: customisation for generalisation [41.728933551492275]
自動手ジェスチャー認識は、長い間AIコミュニティの焦点だった。
低消費電力センサデバイスで動作するジェスチャー認識技術への需要が高まっている。
本研究では,適応的およびアジャイル的誤り訂正を用いたパターン認識システムのための新しい手法を提示する。
論文 参考訳(メタデータ) (2024-03-12T19:34:18Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z) - Incremental Real-Time Personalization in Human Activity Recognition
Using Domain Adaptive Batch Normalization [1.160208922584163]
スマートフォン加速度計などのデバイスからのヒューマンアクティビティ認識(HAR)はユビキタスコンピューティングの基本的な問題である。
従来の作業では、一般的な認識モデルを静的バッチ設定で新しいユーザのユニークな動作パターンにパーソナライズすることで、この問題に対処してきた。
我々の研究は、教師なしのオンラインドメイン適応アルゴリズムを提案することによって、これらの課題に対処する。
論文 参考訳(メタデータ) (2020-05-25T15:49:10Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。