論文の概要: MoCap2Radar: A Spatiotemporal Transformer for Synthesizing Micro-Doppler Radar Signatures from Motion Capture
- arxiv url: http://arxiv.org/abs/2511.11462v1
- Date: Fri, 14 Nov 2025 16:35:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.722386
- Title: MoCap2Radar: A Spatiotemporal Transformer for Synthesizing Micro-Doppler Radar Signatures from Motion Capture
- Title(参考訳): MoCap2Radar:モーションキャプチャーからマイクロドップラーレーダシグナチャを合成するための時空間変換器
- Authors: Kevin Chen, Kenneth W. Parker, Anish Arora,
- Abstract要約: 我々は、モーションキャプチャー(MoCap)データからレーダースペクトログラムを合成するための純粋な機械学習プロセスを提案する。
我々は、変換器モデルを用いて、MoCap-to-spectrogram変換をウィンドウ化されたシーケンス-to-Sequenceタスクとして定式化する。
実験により,提案手法は視覚的かつ定量的に測定可能なドップラーレーダ分光図を生成することが示された。
- 参考スコア(独自算出の注目度): 1.4937905358679553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a pure machine learning process for synthesizing radar spectrograms from Motion-Capture (MoCap) data. We formulate MoCap-to-spectrogram translation as a windowed sequence-to-sequence task using a transformer-based model that jointly captures spatial relations among MoCap markers and temporal dynamics across frames. Real-world experiments show that the proposed approach produces visually and quantitatively plausible doppler radar spectrograms and achieves good generalizability. Ablation experiments show that the learned model includes both the ability to convert multi-part motion into doppler signatures and an understanding of the spatial relations between different parts of the human body. The result is an interesting example of using transformers for time-series signal processing. It is especially applicable to edge computing and Internet of Things (IoT) radars. It also suggests the ability to augment scarce radar datasets using more abundant MoCap data for training higher-level applications. Finally, it requires far less computation than physics-based methods for generating radar data.
- Abstract(参考訳): 我々は、モーションキャプチャー(MoCap)データからレーダースペクトログラムを合成するための純粋な機械学習プロセスを提案する。
我々は,MoCapマーカー間の空間的関係とフレーム間の時間的ダイナミクスを協調的にキャプチャするトランスフォーマーモデルを用いて,MoCap-to-spectrogram変換をウィンドウ化されたシーケンス-to-sequenceタスクとして定式化する。
実世界の実験により、提案手法は視覚的かつ定量的に測定可能なドップラーレーダ分光図を生成し、良好な一般化性を実現することが示されている。
アブレーション実験により、学習モデルには、多部運動をドップラーシグネチャに変換する能力と、身体の異なる部分間の空間的関係の理解の両方が含まれていることが示された。
この結果は、時系列信号処理にトランスフォーマーを使用する興味深い例である。
これはエッジコンピューティングとIoT(Internet of Things)レーダに特に当てはまる。
また、より豊富なMoCapデータを使用してレーダーデータセットを拡張して、より高いレベルのアプリケーションをトレーニングする機能も提案されている。
最後に、レーダデータを生成する物理ベースの方法よりもはるかに少ない計算を必要とする。
関連論文リスト
- Simulate Any Radar: Attribute-Controllable Radar Simulation via Waveform Parameter Embedding [12.285004244174917]
SA-Radarは、カスタマイズ可能なレーダー属性に基づいて、制御可能で効率的なレーダーキューブの生成を可能にするレーダーシミュレーションアプローチである。
我々は、波形パラメータを符号化したレーダ属性を条件とした3次元U-NetであるICFAR-Netを設計し、異なるレーダ構成によって引き起こされる信号の変動を捉える。
我々のフレームワークは、新しいセンサ視点と編集シーンのシミュレーションもサポートしており、自動運転アプリケーションのための汎用レーダーデータエンジンとしての可能性を示している。
論文 参考訳(メタデータ) (2025-06-03T17:58:28Z) - Resource-Efficient Beam Prediction in mmWave Communications with Multimodal Realistic Simulation Framework [57.994965436344195]
ビームフォーミングは、方向と強度を最適化して信号伝送を改善するミリ波通信において重要な技術である。
マルチモーダルセンシング支援ビーム予測は,ユーザ位置やネットワーク条件を予測するために,さまざまなセンサデータを使用して注目されている。
その有望な可能性にもかかわらず、マルチモーダルセンシング支援ビーム予測の採用は、高い計算複雑性、高いコスト、限られたデータセットによって妨げられている。
論文 参考訳(メタデータ) (2025-04-07T15:38:25Z) - EvMic: Event-based Non-contact sound recovery from effective spatial-temporal modeling [69.96729022219117]
音波が物体にぶつかると、高周波で微妙な視覚変化をもたらす振動を誘発する。
イベントカメラハードウェアの最近の進歩は、その視覚的聴覚回復への応用に有益であることを示している。
イベントストリームからの時空間情報を完全に活用した,非接触音の回復のための新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2025-04-03T08:51:17Z) - Mask-RadarNet: Enhancing Transformer With Spatial-Temporal Semantic Context for Radar Object Detection in Autonomous Driving [11.221694136475554]
本稿では,入力レーダデータから階層的セマンティック特徴をフル活用するMask-RadarNetというモデルを提案する。
Mask-RadarNetは、インターリーブド畳み込みとアテンション操作を組み合わせて、トランスフォーマーベースのモデルで従来のアーキテクチャを置き換える。
計算複雑性が比較的低く、パラメータも少ないため、提案したMask-RadarNetは、自律運転における物体検出における高い認識精度を実現する。
論文 参考訳(メタデータ) (2024-12-20T06:39:40Z) - Radon Implicit Field Transform (RIFT): Learning Scenes from Radar Signals [9.170594803531866]
Implicit Neural Representation (INR)は、最小限のレーダーデータでコンパクトで連続的な表現を提供する。
RIFTは、レーダーのための古典的なフォワードモデルとINRベースのシーン表現の2つのコンポーネントで構成されている。
データフットプリントは10%に過ぎず、RIFTモデルはシーン再構築において最大188%の改善を実現している。
論文 参考訳(メタデータ) (2024-10-16T16:59:37Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Multimodal Transformers for Wireless Communications: A Case Study in
Beam Prediction [7.727175654790777]
センシング支援ビーム予測のためのマルチモーダルトランスフォーマー深層学習フレームワークを提案する。
我々は畳み込みニューラルネットワークを用いて、時間とともにサンプリングされた画像、点雲、レーダー生データから特徴を抽出する。
実験結果から、画像とGPSデータに基づいてトレーニングしたソリューションは、予測されたビームの最高の距離ベース精度を78.44%に向上させることがわかった。
論文 参考訳(メタデータ) (2023-09-21T06:29:38Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - FMNet: Latent Feature-wise Mapping Network for Cleaning up Noisy
Micro-Doppler Spectrogram [2.9849405664643585]
ノイズの多い環境は、マイクロドップラー分光器の解釈不能な動きパターンを引き起こす。
レーダーの帰還は しばしば マルチパス 乱雑 干渉に悩まされる
本稿では,FMNet (Feature Mapping Network) と呼ばれる潜在機能対応マッピング手法を提案する。
論文 参考訳(メタデータ) (2021-07-09T19:20:41Z) - TransMOT: Spatial-Temporal Graph Transformer for Multiple Object
Tracking [74.82415271960315]
映像内の物体間の空間的・時間的相互作用を効率的にモデル化するソリューションであるTransMOTを提案する。
TransMOTは従来のTransformerよりも計算効率が高いだけでなく、トラッキング精度も向上している。
提案手法は、MOT15、MOT16、MOT17、MOT20を含む複数のベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-04-01T01:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。