論文の概要: WiFi-TCN: Temporal Convolution for Human Interaction Recognition based
on WiFi signal
- arxiv url: http://arxiv.org/abs/2305.18211v2
- Date: Thu, 11 Jan 2024 09:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 04:08:31.289113
- Title: WiFi-TCN: Temporal Convolution for Human Interaction Recognition based
on WiFi signal
- Title(参考訳): wifi-tcn:wifi信号に基づく対話認識のための時間畳み込み
- Authors: Chih-Yang Lin, Chia-Yu Lin, Yu-Tso Liu, and Timothy K. Shih
- Abstract要約: 近年,Wi-Fiによる人間活動認識が注目されている。
Wi-FiベースのHARにまつわる課題は、シーンや被写体が変化するときのパフォーマンスが著しく低下することである。
本稿では,TN-AAと呼ばれる時間的畳み込みネットワークを利用した新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 4.0773490083614075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The utilization of Wi-Fi based human activity recognition has gained
considerable interest in recent times, primarily owing to its applications in
various domains such as healthcare for monitoring breath and heart rate,
security, elderly care. These Wi-Fi-based methods exhibit several advantages
over conventional state-of-the-art techniques that rely on cameras and sensors,
including lower costs and ease of deployment. However, a significant challenge
associated with Wi-Fi-based HAR is the significant decline in performance when
the scene or subject changes. To mitigate this issue, it is imperative to train
the model using an extensive dataset. In recent studies, the utilization of
CNN-based models or sequence-to-sequence models such as LSTM, GRU, or
Transformer has become prevalent. While sequence-to-sequence models can be more
precise, they are also more computationally intensive and require a larger
amount of training data. To tackle these limitations, we propose a novel
approach that leverages a temporal convolution network with augmentations and
attention, referred to as TCN-AA. Our proposed method is computationally
efficient and exhibits improved accuracy even when the data size is increased
threefold through our augmentation techniques. Our experiments on a publicly
available dataset indicate that our approach outperforms existing
state-of-the-art methods, with a final accuracy of 99.42%.
- Abstract(参考訳): 近年,Wi-Fiをベースとした人的活動認識の利用は,呼吸や心拍数,セキュリティ,高齢者の介護など,様々な分野に応用されていることから,大きな関心を集めている。
これらのWi-Fiベースの手法は、コスト削減や展開の容易さなど、カメラやセンサーに依存する従来の最先端技術に対して、いくつかの利点がある。
しかし、Wi-FiベースのHARにまつわる重大な課題は、シーンや主題が変化するとパフォーマンスが著しく低下することである。
この問題を軽減するためには、広範なデータセットを使用してモデルをトレーニングすることが不可欠である。
近年, LSTM, GRU, TransformerなどのCNNモデルやシーケンス・ツー・シーケンスモデルの利用が普及している。
sequence-to-sequenceモデルの方が正確であるが、計算集約性が高く、より多くのトレーニングデータを必要とする。
これらの制約に対処するため,TN-AAと呼ばれる時間的畳み込みネットワークを利用した新しいアプローチを提案する。
提案手法は計算効率が高く,拡張手法によりデータサイズが3倍に向上しても精度が向上する。
公開データセットに関する我々の実験は、我々のアプローチが既存の最先端手法より優れており、最終的な精度は99.42%であることを示している。
関連論文リスト
- Quanv4EO: Empowering Earth Observation by means of Quanvolutional Neural Networks [62.12107686529827]
本稿は、大量のリモートセンシングデータの処理において、量子コンピューティング技術を活用することへの大きなシフトを取り上げる。
提案したQuanv4EOモデルでは,多次元EOデータを前処理するための準進化法が導入された。
主要な知見は,提案モデルが画像分類の精度を維持するだけでなく,EOのユースケースの約5%の精度向上を図っていることを示唆している。
論文 参考訳(メタデータ) (2024-07-24T09:11:34Z) - CSI4Free: GAN-Augmented mmWave CSI for Improved Pose Classification [4.504838845625542]
COTS Wi-Fiセンシングの分野では、顕著な研究の欠如がある。
我々は,合成ミリ波チャネル状態情報(CSI)を生成できる手法を開発した。
特に,既存のデータセット上にGAN(Generative Adversarial Network)を使用して,3万以上のCSIサンプルを生成する。
論文 参考訳(メタデータ) (2024-06-26T18:42:22Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Data Augmentation Techniques for Cross-Domain WiFi CSI-based Human
Activity Recognition [1.7404865362620803]
WiFi Channel State Information (CSI) は、屋内環境におけるコンタクトレスおよび視覚的プライバシー保護センシングを可能にする。
環境条件やセンサーハードウェアの多様さにより、低モデル一般化はこの分野でよく知られた問題である。
画像ベース学習で一般的に使用されるデータ拡張技術は、Wi-Fi CSIに適用され、モデル一般化性能への影響を調べる。
論文 参考訳(メタデータ) (2024-01-01T22:27:59Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - An Online Ensemble Learning Model for Detecting Attacks in Wireless
Sensor Networks [0.0]
我々は、アンサンブル学習として知られる重要な機械学習の概念を適用して、インテリジェントで効率的で、かつ、高機能な侵入検知システムを開発する。
本稿では,感覚データ解析における同種・異種のオンラインアンサンブルの応用について検討する。
提案されたオンラインアンサンブルのうち、アダプティブ・ランダム・フォレスト(ARF)とHoeffding Adaptive Tree(HAT)アルゴリズムを組み合わせた異種アンサンブルと、10モデルからなる同種アンサンブルHATは、それぞれ96.84%と97.2%という高い検出率を達成した。
論文 参考訳(メタデータ) (2022-04-28T23:10:47Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - The Imaginative Generative Adversarial Network: Automatic Data
Augmentation for Dynamic Skeleton-Based Hand Gesture and Human Action
Recognition [27.795763107984286]
本稿では、入力データの分布を近似し、この分布から新しいデータをサンプリングする新しい自動データ拡張モデルを提案する。
以上の結果から,拡張戦略は訓練が高速であり,ニューラルネットワークと最先端手法の両方の分類精度を向上させることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-05-27T11:07:09Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Deep ConvLSTM with self-attention for human activity decoding using
wearables [0.0]
本稿では,複数のセンサ時系列データの特徴を捉えつつ,重要な時間点を選択するディープニューラルネットワークアーキテクチャを提案する。
提案手法の有効性を,異なるデータサンプリング戦略にまたがって示すとともに,自己認識機構が大幅に改善したことを示す。
提案手法は、複数の身体センサからの人間の活動のより優れた復号化を、長期間にわたって行うことができる。
論文 参考訳(メタデータ) (2020-05-02T04:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。