論文の概要: milliFlow: Scene Flow Estimation on mmWave Radar Point Cloud for Human
Motion Sensing
- arxiv url: http://arxiv.org/abs/2306.17010v2
- Date: Mon, 3 Jul 2023 21:23:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 19:55:43.880015
- Title: milliFlow: Scene Flow Estimation on mmWave Radar Point Cloud for Human
Motion Sensing
- Title(参考訳): milli Flow:人間のモーションセンシングのためのミリ波レーダ点雲のシーンフロー推定
- Authors: Fangqiang Ding, Zhen Luo, Peijun Zhao, Chris Xiaoxuan Lu
- Abstract要約: 我々は,mmWave点雲の相補的な動き情報として,シーンフロー推定のための新しい深層学習手法であるtextitmilliFlowを提案する。
実験により, 平均3次元終端誤差が4.6cmの手法の優れた性能を示した。
シーンフロー情報を取り入れることで、人間の活動認識、人間のパーシング、人体部分追跡において顕著な改善が達成される。
- 参考スコア(独自算出の注目度): 10.866162590017717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Approaching the era of ubiquitous computing, human motion sensing plays a
crucial role in smart systems for decision making, user interaction, and
personalized services. Extensive research has been conducted on human tracking,
pose estimation, gesture recognition, and activity recognition, which are
predominantly based on cameras in traditional methods. However, the intrusive
nature of cameras limits their use in smart home applications. To address this,
mmWave radars have gained popularity due to their privacy-friendly features. In
this work, we propose \textit{milliFlow}, a novel deep learning method for
scene flow estimation as a complementary motion information for mmWave point
cloud, serving as an intermediate level of features and directly benefiting
downstream human motion sensing tasks. Experimental results demonstrate the
superior performance of our method with an average 3D endpoint error of 4.6cm,
significantly surpassing the competing approaches. Furthermore, by
incorporating scene flow information, we achieve remarkable improvements in
human activity recognition, human parsing, and human body part tracking. To
foster further research in this area, we provide our codebase and dataset for
open access.
- Abstract(参考訳): ユビキタスコンピューティングの時代に近づいているヒューマンモーションセンシングは、意思決定、ユーザインタラクション、パーソナライズサービスといったスマートシステムにおいて重要な役割を果たす。
人間の追跡、ポーズ推定、ジェスチャー認識、行動認識に関する大規模な研究が行われ、従来の方法では主にカメラに基づく。
しかし、カメラの侵入性は、スマートホームアプリケーションでの使用を制限する。
これに対処するため、mmwaveレーダーはプライバシーに優しい機能のために人気を集めている。
本研究では,mmWave 点雲の相補的な動き情報としてのシーンフロー推定のための新しい深層学習手法である \textit{milliFlow} を提案する。
実験の結果,平均3dエンドポイント誤差が4.6cmで,本手法の優れた性能を示すことができた。
さらに,シーンフロー情報を組み込むことにより,人間の行動認識,解析,身体部位追跡の大幅な改善を実現する。
この領域のさらなる研究を促進するため、オープンアクセスのためのコードベースとデータセットを提供しています。
関連論文リスト
- SUPER: Seated Upper Body Pose Estimation using mmWave Radars [6.205521056622584]
Superは、双対mmWaveレーダーを近接して利用する上半身の人間のポーズ推定のためのフレームワークである。
軽量ニューラルネットワークは、上半身の大域的特徴と局所的特徴の両方を抽出し、Skinned Multi-Person Linear (SMPL)モデルの出力ポーズパラメータを抽出する。
論文 参考訳(メタデータ) (2024-07-02T17:32:34Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - MiliPoint: A Point Cloud Dataset for mmWave Radar [12.084565337833792]
ミリ波(mmWave)レーダーは、人間の活動検知の魅力的な代替手段として登場した。
mmWaveレーダーは邪魔にならないので、ユーザーのプライバシーを保護できます。
しかし、RF(Radio Frequency)ベースの技術として、mmWaveレーダーは物体からの反射信号を捉えることに依存しており、カメラに比べてノイズが強い。
これにより、ディープラーニングコミュニティにとって興味深い疑問が持ち上がる。このような魅力的なセンサーのためのより効果的なポイントセットベースのディープラーニング手法を開発できるだろうか?
論文 参考訳(メタデータ) (2023-09-23T16:32:36Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。