論文の概要: WECAR: An End-Edge Collaborative Inference and Training Framework for WiFi-Based Continuous Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2503.07669v1
- Date: Sun, 09 Mar 2025 03:40:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:42:06.568259
- Title: WECAR: An End-Edge Collaborative Inference and Training Framework for WiFi-Based Continuous Human Activity Recognition
- Title(参考訳): WECAR:WiFiによる連続的人間活動認識のためのエッジ協調推論・トレーニングフレームワーク
- Authors: Rong Li, Tao Deng, Siwei Feng, He Huang, Juncheng Jia, Di Yuan, Keqin Li,
- Abstract要約: We propose WECAR, a end-edge collaboration inference and training framework for WiFi-based continuous HAR。
We implement WECAR based on heterogeneous hardware using Jetson Nano as edge device and the ESP32 as end device。
3つの公開WiFiデータセットを対象とした実験により、WECARは性能とパラメータ効率においていくつかの最先端の手法より優れるだけでなく、パラメータカウント後最適化の大幅な削減を実現していることがわかった。
- 参考スコア(独自算出の注目度): 23.374051991346633
- License:
- Abstract: WiFi-based human activity recognition (HAR) holds significant promise for ubiquitous sensing in smart environments. A critical challenge lies in enabling systems to dynamically adapt to evolving scenarios, learning new activities without catastrophic forgetting of prior knowledge, while adhering to the stringent computational constraints of edge devices. Current approaches struggle to reconcile these requirements due to prohibitive storage demands for retaining historical data and inefficient parameter utilization. We propose WECAR, an end-edge collaborative inference and training framework for WiFi-based continuous HAR, which decouples computational workloads to overcome these limitations. In this framework, edge devices handle model training, lightweight optimization, and updates, while end devices perform efficient inference. WECAR introduces two key innovations, i.e., dynamic continual learning with parameter efficiency and hierarchical distillation for end deployment. For the former, we propose a transformer-based architecture enhanced by task-specific dynamic model expansion and stability-aware selective retraining. For the latter, we propose a dual-phase distillation mechanism that includes multi-head self-attention relation distillation and prefix relation distillation. We implement WECAR based on heterogeneous hardware using Jetson Nano as edge devices and the ESP32 as end devices, respectively. Our experiments across three public WiFi datasets reveal that WECAR not only outperforms several state-of-the-art methods in performance and parameter efficiency, but also achieves a substantial reduction in the model's parameter count post-optimization without sacrificing accuracy. This validates its practicality for resource-constrained environments.
- Abstract(参考訳): WiFiベースのヒューマンアクティビティ認識(HAR)は、スマート環境におけるユビキタスセンシングに大きな可能性を秘めている。
重要な課題は、システムが進化するシナリオに動的に適応できるようにし、エッジデバイスの厳密な計算制約を守りながら、事前の知識を破滅的に忘れることなく、新しいアクティビティを学習することである。
現在のアプローチでは、履歴データの保持と非効率なパラメータ利用の禁止的なストレージ要求のために、これらの要件の調整に苦労している。
我々は、Wi-Fiベースの連続HARのためのエンドツーエンドの協調推論およびトレーニングフレームワークであるWECARを提案し、これらの制限を克服するために計算処理を分離する。
このフレームワークでは、エッジデバイスがモデルのトレーニング、軽量な最適化、更新を処理し、一方、エンドデバイスは効率的な推論を実行する。
WECARは、パラメータ効率を伴う動的連続学習と、エンドデプロイメントのための階層的蒸留という、2つの重要なイノベーションを導入している。
前者に対しては、タスク固有の動的モデル拡張と安定性を考慮した選択的再学習により強化されたトランスフォーマーベースのアーキテクチャを提案する。
後者は,多頭部自己注意関係蒸留と接頭関係蒸留を含む二相蒸留機構を提案する。
We implement WECAR based on heterogeneous hardware using Jetson Nano as edge device and the ESP32 as end device。
3つの公開WiFiデータセットを対象とした実験により、WECARは性能とパラメータ効率においていくつかの最先端手法よりも優れるだけでなく、精度を犠牲にすることなくパラメータカウント後最適化を大幅に削減できることがわかった。
これにより、資源制約された環境に対する実用性を検証する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - FedDCT: A Dynamic Cross-Tier Federated Learning Framework in Wireless Networks [5.914766366715661]
フェデレートラーニング(FL)は、ローカルデータを公開せずにデバイス全体でグローバルモデルをトレーニングする。
無線ネットワークにおけるリソースの不均一性と避けられないストラグラーは、FLトレーニングの効率と正確性に大きな影響を与えます。
動的クロスティアフェデレーション学習フレームワーク(FedDCT)を提案する。
論文 参考訳(メタデータ) (2023-07-10T08:54:07Z) - Asynchronous Multi-Model Dynamic Federated Learning over Wireless
Networks: Theory, Modeling, and Optimization [20.741776617129208]
分散機械学習(ML)の鍵となる技術として、フェデレートラーニング(FL)が登場した。
まず、システムパラメータが学習性能に与える影響を捉えるために、長方形のスケジューリングステップと関数を定式化する。
我々の分析は、デバイストレーニング変数と非同期スケジューリング決定の協調的影響に光を当てている。
論文 参考訳(メタデータ) (2023-05-22T21:39:38Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - EF-Train: Enable Efficient On-device CNN Training on FPGA Through Data
Reshaping for Online Adaptation or Personalization [11.44696439060875]
EF-Trainは、チャネルレベルの並列性に基づく畳み込みカーネルを統一した、効率的なDNNトレーニングアクセラレータである。
リソース制限された低消費電力エッジレベルFPGAのエンドツーエンドトレーニングを実現することができる。
我々の設計ではスループットとエネルギー効率の点で46.99GFLOPSと6.09GFLOPS/Wを実現している。
論文 参考訳(メタデータ) (2022-02-18T18:27:42Z) - Wirelessly Powered Federated Edge Learning: Optimal Tradeoffs Between
Convergence and Power Transfer [42.30741737568212]
無線電力伝送(WPT)を用いた電力機器の解法を提案する。
本研究の目的は、無線で駆動するFEEL(WP-FEEL)システムの導入に関するガイドラインの導出である。
その結果、WPTプロビジョニングに関する有用なガイドラインを提供し、学習パフォーマンスの保証を提供します。
論文 参考訳(メタデータ) (2021-02-24T15:47:34Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。