論文の概要: Wi-CBR: WiFi-based Cross-domain Behavior Recognition via Multimodal Collaborative Awareness
- arxiv url: http://arxiv.org/abs/2506.11616v1
- Date: Fri, 13 Jun 2025 09:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.738572
- Title: Wi-CBR: WiFi-based Cross-domain Behavior Recognition via Multimodal Collaborative Awareness
- Title(参考訳): Wi-CBR:マルチモーダル協調認識によるWiFiを用いたクロスドメイン動作認識
- Authors: Ruobei Zhang, Shengeng Tang, Huan Yan, Xiang Zhang, Richang Hong,
- Abstract要約: WiFiに基づく人間の行動認識は、無線信号のバリエーションを分析することによって、ジェスチャーや活動を認識することを目的としている。
動的経路長の変化を反映した位相データと、ジェスチャー動作の速度に関連する周波数変化に対応するドップラーシフト(DFS)データを活用することにより、これらの特徴の効率的な相互作用と融合を可能にし、認識精度を向上させる。
- 参考スコア(独自算出の注目度): 34.31425052291988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: WiFi-based human behavior recognition aims to recognize gestures and activities by analyzing wireless signal variations. However, existing methods typically focus on a single type of data, neglecting the interaction and fusion of multiple features. To this end, we propose a novel multimodal collaborative awareness method. By leveraging phase data reflecting changes in dynamic path length and Doppler Shift (DFS) data corresponding to frequency changes related to the speed of gesture movement, we enable efficient interaction and fusion of these features to improve recognition accuracy. Specifically, we first introduce a dual-branch self-attention module to capture spatial-temporal cues within each modality. Then, a group attention mechanism is applied to the concatenated phase and DFS features to mine key group features critical for behavior recognition. Through a gating mechanism, the combined features are further divided into PD-strengthen and PD-weaken branches, optimizing information entropy and promoting cross-modal collaborative awareness. Extensive in-domain and cross-domain experiments on two large publicly available datasets, Widar3.0 and XRF55, demonstrate the superior performance of our method.
- Abstract(参考訳): WiFiに基づく人間の行動認識は、無線信号のバリエーションを分析することによって、ジェスチャーや活動を認識することを目的としている。
しかし、既存のメソッドは通常、単一のタイプのデータにフォーカスし、複数の機能の相互作用と融合を無視します。
そこで本研究では,新しいマルチモーダル協調認識手法を提案する。
動的経路長の変化を反映した位相データと、ジェスチャー動作の速度に関連する周波数変化に対応するドップラーシフト(DFS)データを活用することにより、これらの特徴の効率的な相互作用と融合を可能にし、認識精度を向上させる。
具体的には、まず、各モードにおける空間的時間的手がかりをキャプチャするための二重分岐自己アテンションモジュールを導入する。
次に、連結位相にグループアテンション機構を適用し、DFS特徴をマイニングして、行動認識に欠かせない重要なグループ特徴を抽出する。
ゲーティング機構を通じて、組み合わせた特徴をPD-strengthenとPD-weakenの枝にさらに分割し、情報のエントロピーを最適化し、相互に協調する認知を促進する。
大規模な公開データセットであるWidar3.0とXRF55のドメイン内およびクロスドメイン実験により,本手法の優れた性能を実証した。
関連論文リスト
- ViFi-ReID: A Two-Stream Vision-WiFi Multimodal Approach for Person Re-identification [3.3743041904085125]
人物再識別(ReID)は、安全検査、人員計数などにおいて重要な役割を担っている。
現在のReIDアプローチのほとんどは、主に目的条件の影響を受けやすい画像から特徴を抽出する。
我々は、Wi-Fi信号のチャネル状態情報(CSI)を介して歩行者からの歩行情報をキャプチャすることで、広く利用可能なルータをセンサデバイスとして活用する。
論文 参考訳(メタデータ) (2024-10-13T15:34:11Z) - Two-stream Multi-level Dynamic Point Transformer for Two-person Interaction Recognition [45.0131792009999]
本稿では,2人インタラクション認識のための2ストリームマルチレベル動的ポイント変換器を提案する。
本モデルでは,局所空間情報,外観情報,動作情報を組み込むことで,対人インタラクションを認識するという課題に対処する。
我々のネットワークは、ほとんどの標準的な評価設定において最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-22T03:51:32Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - Searching Multi-Rate and Multi-Modal Temporal Enhanced Networks for
Gesture Recognition [89.0152015268929]
RGB-Dジェスチャ認識のための最初のニューラルアーキテクチャサーチ(NAS)手法を提案する。
提案手法は,1)3次元中央差分畳畳み込み(3D-CDC)ファミリーによる時間的表現の強化,および多モードレート分岐と横方向接続のための最適化されたバックボーンを含む。
結果として得られたマルチレートネットワークは、RGBと深さ変調と時間力学の関係を理解するための新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-21T10:45:09Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。