論文の概要: M4Human: A Large-Scale Multimodal mmWave Radar Benchmark for Human Mesh Reconstruction
- arxiv url: http://arxiv.org/abs/2512.12378v2
- Date: Wed, 17 Dec 2025 10:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 15:03:26.992151
- Title: M4Human: A Large-Scale Multimodal mmWave Radar Benchmark for Human Mesh Reconstruction
- Title(参考訳): M4Human:人間メッシュ再構築のための大規模マルチモーダルミリ波レーダベンチマーク
- Authors: Junqiao Fan, Yunjiao Zhou, Yizhuo Yang, Xinyuan Cui, Jiarui Zhang, Lihua Xie, Jianfei Yang, Chris Xiaoxuan Lu, Fangqiang Ding,
- Abstract要約: M4Humanは、現在最大の(661Kフレーム)マルチモーダルベンチマークであり、高解像度mmWaveレーダー、RGB、深度データを備えている。
M4Humanには、3Dメッシュとグローバルトラジェクトリを備えた高品質なモーションキャプチャ(MoCap)アノテーションが含まれている。
RTとRPCの両モードのベンチマークと,RGB-Dモードのマルチモーダル融合のベンチマークを構築した。
- 参考スコア(独自算出の注目度): 45.65814462778685
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Human mesh reconstruction (HMR) provides direct insights into body-environment interaction, which enables various immersive applications. While existing large-scale HMR datasets rely heavily on line-of-sight RGB input, vision-based sensing is limited by occlusion, lighting variation, and privacy concerns. To overcome these limitations, recent efforts have explored radio-frequency (RF) mmWave radar for privacy-preserving indoor human sensing. However, current radar datasets are constrained by sparse skeleton labels, limited scale, and simple in-place actions. To advance the HMR research community, we introduce M4Human, the current largest-scale (661K-frame) ($9\times$ prior largest) multimodal benchmark, featuring high-resolution mmWave radar, RGB, and depth data. M4Human provides both raw radar tensors (RT) and processed radar point clouds (RPC) to enable research across different levels of RF signal granularity. M4Human includes high-quality motion capture (MoCap) annotations with 3D meshes and global trajectories, and spans 20 subjects and 50 diverse actions, including in-place, sit-in-place, and free-space sports or rehabilitation movements. We establish benchmarks on both RT and RPC modalities, as well as multimodal fusion with RGB-D modalities. Extensive results highlight the significance of M4Human for radar-based human modeling while revealing persistent challenges under fast, unconstrained motion. The dataset and code will be released after the paper publication.
- Abstract(参考訳): ヒューマンメッシュ再構成(HMR)は、様々な没入型アプリケーションを可能にする体と環境の相互作用に関する直接的な洞察を提供する。
既存の大規模HMRデータセットはラインオブフォーカスのRGB入力に大きく依存しているが、視覚ベースのセンシングはオクルージョン、照明のバリエーション、プライバシー上の懸念によって制限されている。
これらの制限を克服するため、近年、プライバシー保護のための無線周波数(RF)mmWaveレーダの研究が進められている。
しかし、現在のレーダーデータセットは、スパーススケルトンラベル、限られたスケール、単純なインプレースアクションによって制約されている。
HMR研究コミュニティを前進させるために、M4Humanを紹介します。M4Humanは、現在最大の(661Kフレーム)マルチモーダルベンチマークで、高解像度mmWaveレーダー、RGB、深度データを備えています。
M4Humanは生のレーダーテンソル(RT)と加工されたレーダーポイント雲(RPC)の両方を提供し、異なるレベルのRF信号の粒度の研究を可能にする。
M4Humanには、3Dメッシュとグローバルな軌跡を備えた高品質なモーションキャプチャ(MoCap)アノテーションが含まれている。
RTとRPCの両モードのベンチマークと,RGB-Dモードのマルチモーダル融合のベンチマークを構築した。
M4Humanのレーダーに基づく人体モデリングにおける意義を強調しつつ、高速で制約のない動作下での永続的な課題を明らかにした。
データセットとコードは、論文の公開後にリリースされる。
関連論文リスト
- mmPred: Radar-based Human Motion Prediction in the Dark [43.00006337997152]
既存のRGB-Dカメラに基づく動作予測手法は、照明条件に敏感であり、プライバシー上の懸念を提起する。
この研究は、初めてHMPのための新しいセンシングモダリティとしてレーダーを導入している。
レーダベースHMPに適した拡散型フレームワークmmPredを提案する。
論文 参考訳(メタデータ) (2025-11-29T06:26:55Z) - RadarLLM: Empowering Large Language Models to Understand Human Motion from Millimeter-wave Point Cloud Sequence [10.115852646162843]
本稿では、ミリ波レーダをセンシングモードとして用いた人間の理解に大規模言語モデル(LLM)を利用する最初のフレームワークであるRadar-LLMを提案する。
データ不足に対処するために、モーションテキストデータセットからリアルなレーダテキストペアを生成する物理対応パイプライン合成を導入する。
Radar-LLMは、合成および実世界のベンチマークの両方で最先端のパフォーマンスを実現し、ミリ波信号の自然言語記述への正確な変換を可能にする。
論文 参考訳(メタデータ) (2025-04-14T04:18:25Z) - HeRCULES: Heterogeneous Radar Dataset in Complex Urban Environment for Multi-session Radar SLAM [9.462058316827804]
HeRCULESデータセットは、ヘテロジニアスレーダー、FMCW LiDAR、IMU、GPS、カメラを備えた包括的なマルチモーダルデータセットである。
これは、FMCW LiDARと並行して4Dレーダと回転レーダを統合する最初のデータセットであり、非並列なローカライゼーション、マッピング、位置認識機能を提供する。
論文 参考訳(メタデータ) (2025-02-04T02:41:00Z) - V2X-R: Cooperative LiDAR-4D Radar Fusion with Denoising Diffusion for 3D Object Detection [64.93675471780209]
我々は、LiDAR、カメラ、および4Dレーダを取り入れた初のシミュレーションV2XデータセットであるV2X-Rを提案する。
V2X-Rには12,079のシナリオがあり、LiDARと4Dレーダーポイント雲の37,727フレーム、150,908の画像、170,859の注釈付き3D車両バウンディングボックスがある。
本稿では,3次元物体検出のための新しいコラボレーティブLiDAR-4Dレーダ融合パイプラインを提案し,様々な融合戦略を用いて実装する。
論文 参考訳(メタデータ) (2024-11-13T07:41:47Z) - SUPER: Seated Upper Body Pose Estimation using mmWave Radars [6.205521056622584]
Superは、双対mmWaveレーダーを近接して利用する上半身の人間のポーズ推定のためのフレームワークである。
軽量ニューラルネットワークは、上半身の大域的特徴と局所的特徴の両方を抽出し、Skinned Multi-Person Linear (SMPL)モデルの出力ポーズパラメータを抽出する。
論文 参考訳(メタデータ) (2024-07-02T17:32:34Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Diffusion Models for Interferometric Satellite Aperture Radar [73.01013149014865]
確率拡散モデル (Probabilistic Diffusion Models, PDMs) は、最近、非常に有望な生成モデルのクラスとして登場した。
ここでは、PDMを活用して、レーダーベースの衛星画像データセットを複数生成する。
PDMは複雑で現実的な構造を持つ画像を生成することに成功したが、サンプリング時間は依然として問題である。
論文 参考訳(メタデータ) (2023-08-31T16:26:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。