論文の概要: Self-Supervised WiFi-Based Activity Recognition
- arxiv url: http://arxiv.org/abs/2104.09072v1
- Date: Mon, 19 Apr 2021 06:40:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 02:46:53.345701
- Title: Self-Supervised WiFi-Based Activity Recognition
- Title(参考訳): 自己監督型WiFiによる活動認識
- Authors: Hok-Shing Lau, Ryan McConville, Mohammud J. Bocus, Robert J.
Piechocki, Raul Santos-Rodriguez
- Abstract要約: 屋内環境における受動的活動認識のためのWi-Fiデバイスから微細な物理層情報を抽出する。
自己監督型コントラスト学習による活動認識性能の向上を提案する。
WiFiによる活動認識のタスクにおいて,マクロ平均F1スコアの17.7%の増加が観察された。
- 参考スコア(独自算出の注目度): 3.4473723375416188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional approaches to activity recognition involve the use of wearable
sensors or cameras in order to recognise human activities. In this work, we
extract fine-grained physical layer information from WiFi devices for the
purpose of passive activity recognition in indoor environments. While such data
is ubiquitous, few approaches are designed to utilise large amounts of
unlabelled WiFi data. We propose the use of self-supervised contrastive
learning to improve activity recognition performance when using multiple views
of the transmitted WiFi signal captured by different synchronised receivers. We
conduct experiments where the transmitters and receivers are arranged in
different physical layouts so as to cover both Line-of-Sight (LoS) and non LoS
(NLoS) conditions. We compare the proposed contrastive learning system with
non-contrastive systems and observe a 17.7% increase in macro averaged F1 score
on the task of WiFi based activity recognition, as well as significant
improvements in one- and few-shot learning scenarios.
- Abstract(参考訳): アクティビティ認識の伝統的なアプローチは、人間の活動を認識するためにウェアラブルセンサーやカメラを使用する。
本研究では,屋内環境における受動的活動認識のために,WiFiデバイスから微細な物理層情報を抽出する。
このようなデータはユビキタスだが、大量のラベルなしのwifiデータを利用するためのアプローチはほとんどない。
本稿では,異なる同期受信機で受信された送信wifi信号の複数ビューを用いた場合の行動認識性能を向上させるために,自己教師付きコントラスト学習の利用を提案する。
我々は、送信機と受信機を異なる物理配置で配置し、Line-of-Sight(LoS)とNon LoS(NLoS)の両方の条件をカバーする実験を行う。
提案したコントラスト学習システムと非コントラスト学習システムを比較し,Wi-Fiベースアクティビティ認識タスクにおけるマクロ平均F1スコアの17.7%増加と,ワンショットおよび少数ショット学習シナリオの大幅な改善を観察する。
関連論文リスト
- Neuro-Symbolic Fusion of Wi-Fi Sensing Data for Passive Radar with Inter-Modal Knowledge Transfer [10.388561519507471]
本稿では,Wi-FiセンシングのためのニューロシンボリックアーキテクチャであるDeepProbHARを紹介する。
これは、Wi-Fi信号が脚や腕の動きなどの単純な動きと区別できるという最初の証拠を提供する。
DeepProbHARは、人間の活動認識における最先端技術に匹敵する結果を達成している。
論文 参考訳(メタデータ) (2024-07-01T08:43:27Z) - Accurate Passive Radar via an Uncertainty-Aware Fusion of Wi-Fi Sensing Data [12.511211994847173]
Wi-Fiデバイスは、周囲で何が起きているのかを検知し、人間の活動を識別するパッシブレーダーシステムとして効果的に利用することができる。
本稿では,データ生成に係わる潜在分布を推定するために,変分自動エンコーダを用いたアーキテクチャを提案する。
我々は、同一のWi-Fi受信機の異なるアンテナで処理された融合データにより、人間の活動認識の精度が向上することを確認した。
論文 参考訳(メタデータ) (2024-07-01T08:26:15Z) - MaskFi: Unsupervised Learning of WiFi and Vision Representations for
Multimodal Human Activity Recognition [32.89577715124546]
我々は、未ラベルのビデオとWiFiのアクティビティデータのみをモデルトレーニングに活用する、新しい教師なしマルチモーダルHARソリューションMaskFiを提案する。
教師なしの学習手順から恩恵を受けるため、ネットワークは微調整のために少量の注釈付きデータしか必要とせず、より良いパフォーマンスで新しい環境に適応できる。
論文 参考訳(メタデータ) (2024-02-29T15:27:55Z) - GaitFi: Robust Device-Free Human Identification via WiFi and Vision
Multimodal Learning [33.89340087471202]
本稿では,WiFi信号とビデオを利用したマルチモーダル歩行認識手法GaitFiを提案する。
GaitFiでは、WiFiのマルチパス伝搬を反映したチャネル状態情報(CSI)が収集され、人間の視線を捉え、ビデオはカメラによってキャプチャされる。
本稿では,ロバストな歩行情報を学習するために,バックボーンネットワークとして軽量残差畳み込みネットワーク(LRCN)を提案し,さらに2ストリームのGaitFiを提案する。
GaitFiが最先端の歩行認識より優れていることを示す実験が実世界で実施されている
論文 参考訳(メタデータ) (2022-08-30T15:07:43Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - GraSens: A Gabor Residual Anti-aliasing Sensing Framework for Action
Recognition using WiFi [52.530330427538885]
WiFiベースのヒューマンアクション認識(HAR)は、スマートリビングやリモート監視といったアプリケーションにおいて、有望なソリューションと見なされている。
本稿では,無線機器からのWiFi信号を用いた動作を,多様なシナリオで直接認識する,エンド・ツー・エンドのGabor残差検知ネットワーク(GraSens)を提案する。
論文 参考訳(メタデータ) (2022-05-24T10:20:16Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Moving Object Classification with a Sub-6 GHz Massive MIMO Array using
Real Data [64.48836187884325]
無線信号を用いた屋内環境における各種活動の分類は,様々な応用の新たな技術である。
本論文では,屋内環境におけるマルチインプット・マルチアウトプット(MIMO)システムから,機械学習を用いて移動物体の分類を解析する。
論文 参考訳(メタデータ) (2021-02-09T15:48:35Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Vision Meets Wireless Positioning: Effective Person Re-identification
with Recurrent Context Propagation [120.18969251405485]
既存の人物再識別方法は、歩行者を捕獲する視覚センサーに依存している。
携帯電話は、無線測位信号の形で、WiFiや携帯電話ネットワークによって感知することができる。
本稿では,視覚データと無線位置決めデータの間で情報伝達を可能にする新しいコンテキスト伝搬モジュールを提案する。
論文 参考訳(メタデータ) (2020-08-10T14:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。