論文の概要: milliFlow: Scene Flow Estimation on mmWave Radar Point Cloud for Human
Motion Sensing
- arxiv url: http://arxiv.org/abs/2306.17010v4
- Date: Fri, 12 Jan 2024 17:12:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 21:44:06.967628
- Title: milliFlow: Scene Flow Estimation on mmWave Radar Point Cloud for Human
Motion Sensing
- Title(参考訳): milli Flow:人間のモーションセンシングのためのミリ波レーダ点雲のシーンフロー推定
- Authors: Fangqiang Ding, Zhen Luo, Peijun Zhao, Chris Xiaoxuan Lu
- Abstract要約: 我々は,mmWave 点雲の相補的な動き情報として,シーンフロー推定のための新しい深層学習手法である MilliFlow を提案する。
実験により, 平均3次元終端誤差が4.6cmの手法の優れた性能を示した。
人間の活動認識, パーシング, および身体部分追跡において, 顕著な改善が達成された。
- 参考スコア(独自算出の注目度): 12.60795114469414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Approaching the era of ubiquitous computing, human motion sensing plays a
crucial role in smart systems for decision making, user interaction, and
personalized services. Extensive research has been conducted on human tracking,
pose estimation, gesture recognition, and activity recognition, which are
predominantly based on cameras in traditional methods. However, the intrusive
nature of cameras limits their use in smart home applications. To address this,
mmWave radars have gained popularity due to their privacy-friendly features. In
this work, we propose milliFlow, a novel deep learning method for scene flow
estimation as a complementary motion information for mmWave point cloud,
serving as an intermediate level of features and directly benefiting downstream
human motion sensing tasks. Experimental results demonstrate the superior
performance of our method with an average 3D endpoint error of 4.6cm,
significantly surpassing the competing approaches. Furthermore, by
incorporating scene flow information, we achieve remarkable improvements in
human activity recognition, human parsing, and human body part tracking. To
foster further research in this area, we will provide our codebase and dataset
for open access upon acceptance.
- Abstract(参考訳): ユビキタスコンピューティングの時代に近づいているヒューマンモーションセンシングは、意思決定、ユーザインタラクション、パーソナライズサービスといったスマートシステムにおいて重要な役割を果たす。
人間の追跡、ポーズ推定、ジェスチャー認識、行動認識に関する大規模な研究が行われ、従来の方法では主にカメラに基づく。
しかし、カメラの侵入性は、スマートホームアプリケーションでの使用を制限する。
これに対処するため、mmwaveレーダーはプライバシーに優しい機能のために人気を集めている。
本研究では,mmWave 点雲の相補的な動き情報として,シーンフロー推定のための新しい深層学習手法 MilliFlow を提案する。
実験の結果,平均3dエンドポイント誤差が4.6cmで,本手法の優れた性能を示すことができた。
さらに,シーンフロー情報を組み込むことにより,人間の行動認識,解析,身体部位追跡の大幅な改善を実現する。
この分野のさらなる研究を促進するため、受け入れ時にオープンアクセスするためのコードベースとデータセットを提供します。
関連論文リスト
- Motor Focus: Ego-Motion Prediction with All-Pixel Matching [3.837186701755568]
我々は,運動焦点の予測にエゴモーション補償を用いた光学的流れを用いた動き解析を適用した画像のみの手法を提案する。
本稿では,ハンドヘルドおよびボディマウントデバイスにおけるカメラの揺らぎ問題に対処し,性能と精度を著しく低下させることができる。
これはまた、ユーザの即時環境に適応する堅牢でリアルタイムなソリューションを提供する。
論文 参考訳(メタデータ) (2024-04-25T20:45:39Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - MiliPoint: A Point Cloud Dataset for mmWave Radar [12.084565337833792]
ミリ波(mmWave)レーダーは、人間の活動検知の魅力的な代替手段として登場した。
mmWaveレーダーは邪魔にならないので、ユーザーのプライバシーを保護できます。
しかし、RF(Radio Frequency)ベースの技術として、mmWaveレーダーは物体からの反射信号を捉えることに依存しており、カメラに比べてノイズが強い。
これにより、ディープラーニングコミュニティにとって興味深い疑問が持ち上がる。このような魅力的なセンサーのためのより効果的なポイントセットベースのディープラーニング手法を開発できるだろうか?
論文 参考訳(メタデータ) (2023-09-23T16:32:36Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - HDNet: Hierarchical Dynamic Network for Gait Recognition using
Millimeter-Wave Radar [13.19744551082316]
mmWaveレーダを用いた歩行認識のための階層型動的ネットワーク(HDNet)を提案する。
提案手法の優位性を証明するため,2つの公開ミリ波レーダに基づく歩行認識データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-11-01T07:34:22Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。