論文の概要: Real-time multiview data fusion for object tracking with RGBD sensors
- arxiv url: http://arxiv.org/abs/2110.15815v1
- Date: Thu, 28 Oct 2021 09:24:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 02:16:22.911639
- Title: Real-time multiview data fusion for object tracking with RGBD sensors
- Title(参考訳): RGBDセンサを用いた物体追跡のためのリアルタイムマルチビューデータ融合
- Authors: Abdenour Amamra, Nabil Aouf
- Abstract要約: 本稿では,赤緑色深度カメラ(RGBD)のマルチビュー設定により,移動体を正確に追跡する新しい手法を提案する。
まず,装着時に深度センサに発生する変化を除去する補正法を提案する。
次に,未知の車両動作を補正するセンサワイズフィルタリングシステムを提案する。
- 参考スコア(独自算出の注目度): 4.68299658663016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a new approach to accurately track a moving vehicle with
a multiview setup of red-green-blue depth (RGBD) cameras. We first propose a
correction method to eliminate a shift, which occurs in depth sensors when they
become worn. This issue could not be otherwise corrected with the ordinary
calibration procedure. Next, we present a sensor-wise filtering system to
correct for an unknown vehicle motion. A data fusion algorithm is then used to
optimally merge the sensor-wise estimated trajectories. We implement most parts
of our solution in the graphic processor. Hence, the whole system is able to
operate at up to 25 frames per second with a configuration of five cameras.
Test results show the accuracy we achieved and the robustness of our solution
to overcome uncertainties in the measurements and the modelling.
- Abstract(参考訳): 本稿では,赤緑色深度カメラ(RGBD)のマルチビュー設定により,移動体を正確に追跡する新しい手法を提案する。
まず,装着時に深度センサに発生する変化を除去する補正法を提案する。
この問題は通常の校正手順では修正できなかった。
次に,未知の車両の動きを補正するセンサワイズフィルタリングシステムを提案する。
データ融合アルゴリズムは、センサ単位で推定された軌道を最適にマージするために使用される。
私たちはグラフィックプロセッサにソリューションのほとんどを実装しています。
そのため、システム全体の動作速度は最大25フレーム/秒で、5台のカメラが設定できる。
実験の結果, 測定とモデリングにおける不確実性を克服するための解の正確性と頑健性が示された。
関連論文リスト
- Cross-Domain Spatial Matching for Camera and Radar Sensor Data Fusion in Autonomous Vehicle Perception System [0.0]
本稿では,自律走行車認識システムにおける3次元物体検出のためのカメラとレーダーセンサの融合問題に対する新しいアプローチを提案する。
我々のアプローチは、ディープラーニングの最近の進歩に基づいており、両方のセンサーの強度を活用して物体検出性能を向上させる。
提案手法は単一センサ・ソリューションよりも優れた性能を実現し,他のトップレベルの融合手法と直接競合できることを示す。
論文 参考訳(メタデータ) (2024-04-25T12:04:31Z) - TUMTraf Event: Calibration and Fusion Resulting in a Dataset for
Roadside Event-Based and RGB Cameras [14.57694345706197]
インテリジェントトランスポーテーションシステム(ITS)のイベントベースカメラ
非常に高い時間分解能とダイナミックレンジを提供し、動きのぼやけをなくし、夜間の検知性能を向上させることができる。
しかし、イベントベースの画像は従来のRGBカメラの画像と比べて色やテクスチャが欠けている。
論文 参考訳(メタデータ) (2024-01-16T16:25:37Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - LCE-Calib: Automatic LiDAR-Frame/Event Camera Extrinsic Calibration With
A Globally Optimal Solution [10.117923901732743]
LiDARとカメラの組み合わせにより、移動ロボットはマルチモーダルデータで環境を知覚することができる。
従来のフレームカメラは照明条件の変更に敏感で、新しいイベントカメラの導入を動機付けています。
本稿では,LiDARとフレーム/イベントカメラの外部特性をキャリブレーションするためのチェッカーボードによる自動手法を提案する。
論文 参考訳(メタデータ) (2023-03-17T08:07:56Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - High-Resolution Depth Maps Based on TOF-Stereo Fusion [27.10059147107254]
そこで本研究では,効率的な種子育成アルゴリズムに基づくTOF-ステレオ融合法を提案する。
提案アルゴリズムは2次元画像に基づくステレオアルゴリズムよりも優れていることを示す。
このアルゴリズムは、単一のCPU上でリアルタイムのパフォーマンスを示す可能性がある。
論文 参考訳(メタデータ) (2021-07-30T15:11:42Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。