論文の概要: maxVSTAR: Maximally Adaptive Vision-Guided CSI Sensing with Closed-Loop Edge Model Adaptation for Robust Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2510.26146v1
- Date: Thu, 30 Oct 2025 04:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.666975
- Title: maxVSTAR: Maximally Adaptive Vision-Guided CSI Sensing with Closed-Loop Edge Model Adaptation for Robust Human Activity Recognition
- Title(参考訳): MaxVSTAR:ロバストな人間の活動認識のためのクローズドループエッジモデル適応を用いた最大適応型視覚誘導型CSIセンシング
- Authors: Kexing Liu,
- Abstract要約: maxVSTARは、エッジデプロイされたCSIセンシングシステムのドメインシフトを緩和する、視覚誘導型モデル適応フレームワークである。
提案システムは,高精度なYOLOベースの視覚モデルが動的監視信号として機能する,クロスモーダルな教師学生向けアーキテクチャを統合している。
大規模な実験により、maxVSTARの有効性が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: WiFi Channel State Information (CSI)-based human activity recognition (HAR) provides a privacy-preserving, device-free sensing solution for smart environments. However, its deployment on edge devices is severely constrained by domain shift, where recognition performance deteriorates under varying environmental and hardware conditions. This study presents maxVSTAR (maximally adaptive Vision-guided Sensing Technology for Activity Recognition), a closed-loop, vision-guided model adaptation framework that autonomously mitigates domain shift for edge-deployed CSI sensing systems. The proposed system integrates a cross-modal teacher-student architecture, where a high-accuracy YOLO-based vision model serves as a dynamic supervisory signal, delivering real-time activity labels for the CSI data stream. These labels enable autonomous, online fine-tuning of a lightweight CSI-based HAR model, termed Sensing Technology for Activity Recognition (STAR), directly at the edge. This closed-loop retraining mechanism allows STAR to continuously adapt to environmental changes without manual intervention. Extensive experiments demonstrate the effectiveness of maxVSTAR. When deployed on uncalibrated hardware, the baseline STAR model's recognition accuracy declined from 93.52% to 49.14%. Following a single vision-guided adaptation cycle, maxVSTAR restored the accuracy to 81.51%. These results confirm the system's capacity for dynamic, self-supervised model adaptation in privacy-conscious IoT environments, establishing a scalable and practical paradigm for long-term autonomous HAR using CSI sensing at the network edge.
- Abstract(参考訳): WiFi Channel State Information (CSI)ベースのヒューマンアクティビティ認識(HAR)は、スマート環境のためのプライバシー保護、デバイスフリーセンシングソリューションを提供する。
しかし、エッジデバイスへの展開は、様々な環境やハードウェア条件下で認識性能が低下するドメインシフトによって厳しく制約されている。
本研究は、エッジ展開型CSIセンサシステムにおけるドメインシフトを自律的に軽減するクローズドループ型視覚誘導モデル適応フレームワークであるmaxVSTAR(maximally Adaptive Vision-Guided Sensing Technology for Activity Recognition)を提案する。
提案システムでは,高精度のYOLOベースの視覚モデルで動的監視信号として機能し,CSIデータストリームのリアルタイムなアクティビティラベルを提供する。
これらのラベルは、軽量CSIベースのHARモデルであるSensing Technology for Activity Recognition (STAR)を直接端に置いて、自律的でオンラインな微調整を可能にする。
この閉ループ再訓練機構により、STARは手動で介入することなく環境変化に継続的に適応することができる。
大規模な実験により、maxVSTARの有効性が示された。
校正されていないハードウェアに配備されると、ベースラインのSTARモデルの認識精度は93.52%から49.14%に低下した。
単一の視覚誘導適応サイクルの後、maxVSTARは精度を81.51%に回復した。
これらの結果は、プライバシを意識したIoT環境における動的で自己教師型モデル適応のためのシステムの能力を確認し、ネットワークエッジでのCSIセンシングを用いた長期的な自律HARのためのスケーラブルで実践的なパラダイムを確立した。
関連論文リスト
- Adversary-Aware Private Inference over Wireless Channels [51.93574339176914]
ワイヤレスエッジデバイスにおけるAIベースのセンシングは、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
機密性の高い個人情報は敵によって再構築できるため、プライバシー侵害のリスクを軽減するために特徴の変換が必要である。
本稿では,デバイスがモデルサーバに送信する前に抽出した特徴の変換を適用する,プライバシ保護型AIベースセンシングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-23T13:02:14Z) - AI/ML Life Cycle Management for Interoperable AI Native RAN [50.61227317567369]
人工知能(AI)と機械学習(ML)モデルは、5Gラジオアクセスネットワーク(RAN)を急速に浸透させている
これらの開発は、AIネイティブなトランシーバーを6Gのキーイネーブルとして基盤を築いた。
論文 参考訳(メタデータ) (2025-07-24T16:04:59Z) - RoHOI: Robustness Benchmark for Human-Object Interaction Detection [84.78366452133514]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - Automating Traffic Monitoring with SHM Sensor Networks via Vision-Supervised Deep Learning [0.18148496440453665]
橋は、土木インフラの重要な要素として、劣化の影響をますます受けている。
ディープラーニングの最近の進歩は、継続的かつ自動化された監視への進歩を可能にしている。
構造的健康モニタリング(SHM)センサネットワークを用いた,継続的交通監視のための完全自動ディープラーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-23T18:27:14Z) - CSI-Bench: A Large-Scale In-the-Wild Dataset for Multi-task WiFi Sensing [13.709208651007167]
CSI(Channel State Information)のきめ細かい変化を捉えたWiFiセンシングは、人間の活動監視のための説得力のある非接触モードとして登場した。
既存のWiFiセンサーシステムは、均一なハードウェアで制御された環境で収集されたデータセットと、日々のアクティビティを反映しない断片化されたセッションベースの記録のために、現実世界の設定を一般化するのに苦労している。
CSI-Benchは,35名の実ユーザを抱えた26の屋内環境において,商用WiFiエッジデバイスを用いて収集した大規模Wildベンチマークデータセットである。
論文 参考訳(メタデータ) (2025-05-28T01:29:29Z) - WiFi based Human Fall and Activity Recognition using Transformer based Encoder Decoder and Graph Neural Networks [8.427757893042374]
トランスフォーマーベースのデコーダネットワーク(TEDNet)は、WiFi信号から人間の骨格のポーズを推定するために設計された。
TED Netは、畳み込みエンコーダとトランスフォーマーベースのアテンション機構を統合し、CSI信号から骨格の特徴をキャプチャする。
論文 参考訳(メタデータ) (2025-04-23T12:22:24Z) - Online hand gesture recognition using Continual Graph Transformers [1.3927943269211591]
リアルタイムスケルトンシーケンスストリーミングのための新しいオンライン認識システムを提案する。
提案手法は最先端の精度を実現し, 偽陽性率を大幅に低減し, リアルタイムアプリケーションにとって魅力的なソリューションとなる。
提案システムは,人間とロボットのコラボレーションや補助技術など,さまざまな領域にシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-02-20T17:27:55Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。