論文の概要: RadHARSimulator V2: Video to Doppler Generator
- arxiv url: http://arxiv.org/abs/2511.09022v1
- Date: Thu, 13 Nov 2025 01:26:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.360793
- Title: RadHARSimulator V2: Video to Doppler Generator
- Title(参考訳): RadHARSimulator V2:ドップラー発電機の映像化
- Authors: Weicheng Gao,
- Abstract要約: 本稿では,録画映像から直接ドップラースペクトルを生成するシミュレータについて述べる。
コンピュータビジョンとレーダーモジュールの両方がシミュレータに含まれている。
レーダベースHARに対して,ハイブリッド並列シリアルニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 1.3706331473063882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radar-based human activity recognition (HAR) still lacks a comprehensive simulation method. Existing software is developed based on models or motion-captured data, resulting in limited flexibility. To address this issue, a simulator that directly generates Doppler spectra from recorded video footage (RadHARSimulator V2) is presented in this paper. Both computer vision and radar modules are included in the simulator. In computer vision module, the real-time model for object detection with global nearest neighbor is first used to detect and track human targets in the video. Then, the high-resolution network is used to estimate two-dimensional poses of the detected human targets. Next, the three-dimensional poses of the detected human targets are obtained by nearest matching method. Finally, smooth temporal three-dimensional pose estimation is achieved through Kalman filtering. In radar module, pose interpolation and smoothing are first achieved through the Savitzky-Golay method. Second, the delay model and the mirror method are used to simulate echoes in both free-space and through-the-wall scenarios. Then, range-time map is generated using pulse compression, moving target indication, and DnCNN. Next, Doppler-time map (DTM) is generated using short-time Fourier transform and DnCNN again. Finally, the ridge features on the DTM are extracted using the maximum local energy method. In addition, a hybrid parallel-serial neural network architecture is proposed for radar-based HAR. Numerical experiments are conducted and analyzed to demonstrate the effectiveness of the designed simulator and the proposed network model. The open-source code of this work can be found in: https://github.com/JoeyBGOfficial/RadHARSimulatorV2-Video-to-Doppler-Generator.
- Abstract(参考訳): レーダに基づく人間活動認識(HAR)はまだ包括的なシミュレーション手法を欠いている。
既存のソフトウェアはモデルやモーションキャプチャーデータに基づいて開発されており、柔軟性は限られている。
本稿では,記録映像から直接ドップラースペクトルを生成するシミュレータ(RadHARSimulator V2)について述べる。
コンピュータビジョンとレーダーモジュールの両方がシミュレータに含まれている。
コンピュータビジョンモジュールでは、ビデオ中の人間の標的を検出し、追跡するために、地球近傍で物体を検出するリアルタイムモデルが最初に使用される。
そして、高分解能ネットワークを用いて、検出された人間の標的の2次元ポーズを推定する。
次に、最も近いマッチング法により、検出された人的対象の3次元ポーズを求める。
最後に、カルマンフィルタによりスムーズな時間的3次元ポーズ推定を行う。
レーダモジュールにおいて、ポーズ補間と平滑化は、最初にサヴィツキー・ゴレイ法によって達成される。
第二に、遅延モデルとミラー法を用いて、自由空間および壁面通過の両方のシナリオでエコーをシミュレートする。
そして、パルス圧縮、移動目標指示、DnCNNを用いてレンジタイムマップを生成する。
次に、短時間フーリエ変換とDnCNNを用いてドップラー時間マップ(DTM)を生成する。
最後に,DTMの隆起特性を最大局所エネルギー法を用いて抽出する。
さらに,レーダベースHARに対して,ハイブリッド並列シリアルニューラルネットワークアーキテクチャを提案する。
設計シミュレータと提案したネットワークモデルの有効性を実証するために, 数値実験を行い, 解析した。
この作業のオープンソースコードは、https://github.com/JoeyBGOfficial/RadHARSimulatorV2-Video-to-Doppler-Generatorにある。
関連論文リスト
- Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - Through-the-Wall Radar Human Activity Recognition WITHOUT Using Neural Networks [0.0]
TWR HARタスクを達成するために、ニューラルネットワークをエスキューして、元のパスに戻りたいと思っています。
マイクロドップラーセグメンテーション機能は2次元の点雲に離散化される。
提案手法の有効性を数値シミュレーションおよび測定実験により実証した。
論文 参考訳(メタデータ) (2025-06-05T15:45:08Z) - GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - EM-GANSim: Real-time and Accurate EM Simulation Using Conditional GANs for 3D Indoor Scenes [55.2480439325792]
実時間電磁伝搬のための新しい機械学習手法(EM-GANSim)を提案する。
実際には、3D屋内環境のあらゆる場所で数ミリ秒で信号強度を計算することができる。
論文 参考訳(メタデータ) (2024-05-27T17:19:02Z) - G3R: Generating Rich and Fine-grained mmWave Radar Data from 2D Videos for Generalized Gesture Recognition [19.95047010486547]
我々は、リッチな2Dビデオを利用してリアルなレーダデータを生成するソフトウェアパイプラインを開発した。
ユーザジェスチャの多彩できめ細かな反射特性をシミュレートする課題に対処する。
我々は、公開データソースと自己収集現実レーダデータからの2Dビデオを用いて、G3Rを実装し、評価する。
論文 参考訳(メタデータ) (2024-04-23T11:22:59Z) - Generation of Realistic Synthetic Raw Radar Data for Automated Driving
Applications using Generative Adversarial Networks [0.0]
本研究では、GAN(Generative Adversarial Network)を用いた合成生レーダデータを生成するFMCWレーダシミュレーションの高速化手法を提案する。
コードとトレーニング済みのウェイトはオープンソースで、GitHubから入手可能だ。
以上の結果から, 車両のコヒーレントレーダ反射と背景騒音は, チャープ, RAマップ, 物体検出結果の比較に基づいて, 現実的であることがわかった。
論文 参考訳(メタデータ) (2023-08-04T17:44:27Z) - Listen2Scene: Interactive material-aware binaural sound propagation for
reconstructed 3D scenes [69.03289331433874]
仮想現実(VR)および拡張現実(AR)アプリケーションのためのエンドツーエンドオーディオレンダリング手法(Listen2Scene)を提案する。
実環境の3次元モデルに対する音響効果を生成するために,ニューラルネットを用いた新しい音響伝搬法を提案する。
論文 参考訳(メタデータ) (2023-02-02T04:09:23Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。