論文の概要: Radar and Event Camera Fusion for Agile Robot Ego-Motion Estimation
- arxiv url: http://arxiv.org/abs/2506.18443v1
- Date: Mon, 23 Jun 2025 09:27:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.923207
- Title: Radar and Event Camera Fusion for Agile Robot Ego-Motion Estimation
- Title(参考訳): レーダとイベントカメラの融合によるアジャイルロボットのエゴ運動推定
- Authors: Yang Lyu, Zhenghao Zou, Yanfeng Li, Chunhui Zhao, Quan Pan,
- Abstract要約: ロボットの移動速度を積極的に推定するためのIMUフリー・機能連想フリーフレームワークを提案する。
瞬時生イベントとドップラー計測を用いて、回転速度と翻訳速度を直接導出する。
本研究では,時間と事象を併用した連続時間状態空間モデルを提案し,よりスムーズな方法でエゴ運動速度を推定する。
- 参考スコア(独自算出の注目度): 27.282729603784496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving reliable ego motion estimation for agile robots, e.g., aerobatic aircraft, remains challenging because most robot sensors fail to respond timely and clearly to highly dynamic robot motions, often resulting in measurement blurring, distortion, and delays. In this paper, we propose an IMU-free and feature-association-free framework to achieve aggressive ego-motion velocity estimation of a robot platform in highly dynamic scenarios by combining two types of exteroceptive sensors, an event camera and a millimeter wave radar, First, we used instantaneous raw events and Doppler measurements to derive rotational and translational velocities directly. Without a sophisticated association process between measurement frames, the proposed method is more robust in texture-less and structureless environments and is more computationally efficient for edge computing devices. Then, in the back-end, we propose a continuous-time state-space model to fuse the hybrid time-based and event-based measurements to estimate the ego-motion velocity in a fixed-lagged smoother fashion. In the end, we validate our velometer framework extensively in self-collected experiment datasets. The results indicate that our IMU-free and association-free ego motion estimation framework can achieve reliable and efficient velocity output in challenging environments. The source code, illustrative video and dataset are available at https://github.com/ZzhYgwh/TwistEstimator.
- Abstract(参考訳): エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティック・エアロバティックス)のようなアジャイル・ロボットの信頼性の高いエゴ運動推定を実現することは依然として難しい。
本稿では,ロボットの移動速度を動的に推定するために,イベントカメラとミリ波レーダの2種類の外部受動的センサを組み合わせたIMUフリー・機能連想フリーのフレームワークを提案し,まず,瞬時生イベントとドップラー計測を用いて回転速度と翻訳速度を直接推定した。
計測フレーム間の高度な関連がなければ, 提案手法はテクスチャレスで構造のない環境ではより堅牢であり, エッジコンピューティングデバイスではより計算効率がよい。
そこで,本稿では,時間と事象に基づくハイブリッド計測を融合した連続時間状態空間モデルを提案し,よりスムーズな方法でエゴ運動速度を推定する。
最終的に、自己収集実験データセットにおいて、我々のベロメーターフレームワークを広範囲に検証する。
その結果,我々のIMUフリー・アソシエーションフリー・エゴ運動推定フレームワークは,課題のある環境において,信頼性と効率のよい速度出力を達成できることが示唆された。
ソースコード、イラスト動画、データセットはhttps://github.com/ZzhYgwh/TwistEstimator.comで入手できる。
関連論文リスト
- Hybrid Neural-MPM for Interactive Fluid Simulations in Real-Time [57.30651532625017]
本稿では,数値シミュレーション,神経物理,生成制御を統合した新しいハイブリッド手法を提案する。
本システムでは, 多様な2D/3Dシナリオ, 材料タイプ, 障害物相互作用における堅牢な性能を示す。
受け入れ次第、モデルとデータの両方をリリースすることを約束します。
論文 参考訳(メタデータ) (2025-05-25T01:27:18Z) - Planar Velocity Estimation for Fast-Moving Mobile Robots Using Event-Based Optical Flow [1.4447019135112429]
本稿では,車輪と表面のトラクションの仮定から分離した速度推定手法を提案する。
提案手法は1:10スケールの自律レースプラットフォーム上でのフィールド実験により評価される。
論文 参考訳(メタデータ) (2025-05-16T11:00:33Z) - Taccel: Scaling Up Vision-based Tactile Robotics via High-performance GPU Simulation [50.34179054785646]
ロボット,触覚センサ,物体を精度と前例のない速度でモデル化するために,IPCとABDを統合した高性能なシミュレーションプラットフォームであるTaccelを提案する。
Taccelは正確な物理シミュレーションとリアルな触覚信号を提供し、ユーザフレンドリーなAPIを通じて柔軟なロボットセンサー構成をサポートする。
これらの能力は、触覚ロボットの研究と開発を拡大するための強力なツールとして、Taccelを位置づけている。
論文 参考訳(メタデータ) (2025-04-17T12:57:11Z) - FRMD: Fast Robot Motion Diffusion with Consistency-Distilled Movement Primitives for Smooth Action Generation [3.7351623987275873]
本研究では,スムーズかつ時間的に一貫したロボットの動きを生成するための高速ロボット運動拡散法を提案する。
本手法は,移動プリミティブ(MP)と一貫性モデルを統合し,効率的な単一ステップ軌道生成を実現する。
その結果,FRMDはより高速でスムーズな軌道を発生し,高い成功率を達成できた。
論文 参考訳(メタデータ) (2025-03-03T20:56:39Z) - Bench2Drive-R: Turning Real World Data into Reactive Closed-Loop Autonomous Driving Benchmark by Generative Model [63.336123527432136]
我々は,リアクティブ閉ループ評価を可能にする生成フレームワークであるBench2Drive-Rを紹介する。
既存の自動運転用ビデオ生成モデルとは異なり、提案された設計はインタラクティブなシミュレーションに適したものである。
我々は、Bench2Drive-Rの生成品質を既存の生成モデルと比較し、最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-12-11T06:35:18Z) - Neural Implicit Swept Volume Models for Fast Collision Detection [0.0]
本稿では,深層学習に基づく符号付き距離計算の高速化と幾何衝突チェッカーの精度保証を併用したアルゴリズムを提案する。
シミュレーションおよび実世界のロボット実験において、我々のアプローチを検証するとともに、商用ビンピッキングアプリケーションを高速化できることを実証する。
論文 参考訳(メタデータ) (2024-02-23T12:06:48Z) - Event Camera-based Visual Odometry for Dynamic Motion Tracking of a
Legged Robot Using Adaptive Time Surface [5.341864681049579]
イベントカメラは高時間分解能とダイナミックレンジを提供しており、高速移動時のぼやけたRGB画像の問題を排除できる。
本稿では,従来の時間面におけるホワイトアウト問題とブラックアウト問題に対処する適応時間面(ATS)手法を提案する。
最後に,RGBとイベントベースの地図と画像の両方で3D-2Dアライメントを同時に行う非線形ポーズ最適化式を提案する。
論文 参考訳(メタデータ) (2023-05-15T19:03:45Z) - Unified Control Framework for Real-Time Interception and Obstacle Avoidance of Fast-Moving Objects with Diffusion Variational Autoencoder [2.5642257132861923]
動的環境におけるロボットアームによる高速移動物体のリアルタイムインターセプションは、非常に困難な課題である。
本稿では,動的オブジェクトを同時にインターセプトし,移動障害を回避することで,課題に対処する統一的な制御フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-27T18:46:52Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Motion Prediction Using Temporal Inception Module [96.76721173517895]
人間の動作を符号化するTIM(Temporal Inception Module)を提案する。
本フレームワークは,異なる入力長に対して異なるカーネルサイズを用いて,畳み込み層を用いて入力埋め込みを生成する。
標準的な動き予測ベンチマークデータセットであるHuman3.6MとCMUのモーションキャプチャデータセットの実験結果から,我々の手法は一貫して技術手法の状態を上回ります。
論文 参考訳(メタデータ) (2020-10-06T20:26:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。