論文の概要: Exploring FMCW Radars and Feature Maps for Activity Recognition: A Benchmark Study
- arxiv url: http://arxiv.org/abs/2503.05629v1
- Date: Fri, 07 Mar 2025 17:53:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:21:13.915355
- Title: Exploring FMCW Radars and Feature Maps for Activity Recognition: A Benchmark Study
- Title(参考訳): 活動認識のためのFMCWレーダと特徴マップの探索 : ベンチマークによる検討
- Authors: Ali Samimi Fard, Mohammadreza Mashhadigholamali, Samaneh Zolfaghari, Hajar Abedi, Mainak Chakraborty, Luigi Borzì, Masoud Daneshtalab, George Shaker,
- Abstract要約: 本研究では、人間の活動認識のための周波数変調連続波レーダに基づくフレームワークを提案する。
特徴写像を画像として処理する従来の手法とは異なり、本研究では多次元特徴写像をデータベクトルとして与える。
ConvLSTMモデルは従来の機械学習およびディープラーニングモデルよりも優れ、精度は90.51%に達した。
- 参考スコア(独自算出の注目度): 2.251010251400407
- License:
- Abstract: Human Activity Recognition has gained significant attention due to its diverse applications, including ambient assisted living and remote sensing. Wearable sensor-based solutions often suffer from user discomfort and reliability issues, while video-based methods raise privacy concerns and perform poorly in low-light conditions or long ranges. This study introduces a Frequency-Modulated Continuous Wave radar-based framework for human activity recognition, leveraging a 60 GHz radar and multi-dimensional feature maps. Unlike conventional approaches that process feature maps as images, this study feeds multi-dimensional feature maps -- Range-Doppler, Range-Azimuth, and Range-Elevation -- as data vectors directly into the machine learning (SVM, MLP) and deep learning (CNN, LSTM, ConvLSTM) models, preserving the spatial and temporal structures of the data. These features were extracted from a novel dataset with seven activity classes and validated using two different validation approaches. The ConvLSTM model outperformed conventional machine learning and deep learning models, achieving an accuracy of 90.51% and an F1-score of 87.31% on cross-scene validation and an accuracy of 89.56% and an F1-score of 87.15% on leave-one-person-out cross-validation. The results highlight the approach's potential for scalable, non-intrusive, and privacy-preserving activity monitoring in real-world scenarios.
- Abstract(参考訳): 人間の活動認識は、環境支援型生活とリモートセンシングを含む多様な応用により、大きな注目を集めている。
ウェアラブルなセンサーベースのソリューションは、ユーザの不快感や信頼性の問題に悩まされることが多いが、ビデオベースの手法はプライバシーの懸念を高め、低照度や長距離ではあまり機能しない。
本研究では,60GHzのレーダと多次元特徴写像を応用した,人間の活動認識のための周波数変調連続波レーダに基づくフレームワークを提案する。
画像として特徴マップを処理する従来のアプローチとは異なり、本研究では、データベクトルを機械学習(SVM, MLP)とディープラーニング(CNN, LSTM, ConvLSTM)モデルに直接供給し、データの空間構造と時間構造を保存する。
これらの特徴は、7つのアクティビティクラスを持つ新しいデータセットから抽出され、2つの異なる検証手法を用いて検証された。
ConvLSTMモデルは従来の機械学習およびディープラーニングモデルより優れており、クロスシーン検証では90.51%、F1スコアは87.31%、精度は89.56%、F1スコアは87.15%である。
その結果は、実際のシナリオにおけるスケーラブルで非侵襲的でプライバシ保護のアクティビティ監視に対する、アプローチの可能性を強調している。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Scaling Wearable Foundation Models [54.93979158708164]
センサ基礎モデルのスケーリング特性を計算,データ,モデルサイズにわたって検討する。
最大4000万時間分の心拍数、心拍変動、心電図活動、加速度計、皮膚温度、および1分間のデータを用いて、私たちはLSMを作成します。
この結果から,LSMのスケーリング法則は,時間とセンサの両面において,計算や外挿などのタスクに対して確立されている。
論文 参考訳(メタデータ) (2024-10-17T15:08:21Z) - DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - Radar-Based Recognition of Static Hand Gestures in American Sign
Language [17.021656590925005]
本研究では,先進レーダ線トレーシングシミュレータによる合成データの有効性について検討した。
シミュレータは直感的な材料モデルを採用し、データ多様性を導入するように調整することができる。
NNを合成データで専用にトレーニングしているにもかかわらず、実際の測定データでテストを行うと、有望な性能を示す。
論文 参考訳(メタデータ) (2024-02-20T08:19:30Z) - CLAN: A Contrastive Learning based Novelty Detection Framework for Human
Activity Recognition [3.0108863071498035]
CLANは、人間の活動認識のための2段階のコントラスト学習に基づく新規性検出フレームワークである。
それは、時間的および周波数的特徴の重要さを含む、人間の活動特性に関する課題に合わせたものである。
4つの実世界の人間活動データセットの実験により、CLANは既存の新規性検出手法の最高の性能を上回っていることが示された。
論文 参考訳(メタデータ) (2024-01-17T03:57:36Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - Cross-modal Learning of Graph Representations using Radar Point Cloud
for Long-Range Gesture Recognition [6.9545038359818445]
長距離(1m~2m)ジェスチャー認識のための新しいアーキテクチャを提案する。
私たちは、カメラポイントクラウドから60GHzのFMCWレーダポイントクラウドまで、ポイントクラウドベースのクロスラーニングアプローチを使用します。
実験結果では,5つのジェスチャーに対して98.4%の総合精度と一般化能力を示す。
論文 参考訳(メタデータ) (2022-03-31T14:34:36Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - Human Activity Recognition from Wearable Sensor Data Using
Self-Attention [2.9023633922848586]
本稿では,身体のセンサデータから行動認識のための自己認識型ニューラルネットワークモデルを提案する。
一般に公開されている4つのHARデータセット、PAMAP2、Opportunity、Skoda、USC-HADについて実験を行った。
ベンチマークテスト対象とLeave-out-subject評価の両方において,最近の最先端モデルよりも高い性能向上を実現している。
論文 参考訳(メタデータ) (2020-03-17T14:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。