論文の概要: BVE + EKF: A viewpoint estimator for the estimation of the object's position in the 3D task space using Extended Kalman Filters
- arxiv url: http://arxiv.org/abs/2406.03591v1
- Date: Wed, 5 Jun 2024 19:20:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 19:14:47.849062
- Title: BVE + EKF: A viewpoint estimator for the estimation of the object's position in the 3D task space using Extended Kalman Filters
- Title(参考訳): BVE + EKF:拡張カルマンフィルタを用いた3次元タスク空間における物体位置推定のための視点推定器
- Authors: Sandro Costa Magalhães, António Paulo Moreira, Filipe Neves dos Santos, Jorge Dias,
- Abstract要約: RGB-Dセンサーは、放射線や雨などの外部の摂動に敏感であるため、オープンフィールド環境で動作している課題に直面している。
複数の作品がモノクロカメラを用いて物体の3D位置を認識するという課題に近づいている。
我々は,拡張カルマンフィルタ(EKF)を用いた最適視点推定器(BVE)というガウス視点推定器を用いて3次元物体の位置を予測する問題にアプローチすることを目的とする。
このアルゴリズムはタスクの効率を証明し、最大平均ユークリッド誤差は約32mmに達した。
- 参考スコア(独自算出の注目度): 3.1884970687943417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RGB-D sensors face multiple challenges operating under open-field environments because of their sensitivity to external perturbations such as radiation or rain. Multiple works are approaching the challenge of perceiving the 3D position of objects using monocular cameras. However, most of these works focus mainly on deep learning-based solutions, which are complex, data-driven, and difficult to predict. So, we aim to approach the problem of predicting the 3D objects' position using a Gaussian viewpoint estimator named best viewpoint estimator (BVE) powered by an extended Kalman filter (EKF). The algorithm proved efficient on the tasks and reached a maximum average Euclidean error of about 32 mm. The experiments were deployed and evaluated in MATLAB using artificial Gaussian noise. Future work aims to implement the system in a robotic system.
- Abstract(参考訳): RGB-Dセンサーは、放射線や雨などの外部の摂動に敏感であるため、オープンフィールド環境で動作している複数の課題に直面している。
複数の作品がモノクロカメラを用いて物体の3D位置を認識するという課題に近づいている。
しかし、これらの研究の大部分は、複雑なデータ駆動型で予測が難しいディープラーニングベースのソリューションに重点を置いている。
そこで本稿では,拡張カルマンフィルタ (EKF) を用いたガウス視点推定器 (BVE) を用いて3次元物体の位置を予測する問題にアプローチする。
このアルゴリズムはタスクの効率を証明し、最大平均ユークリッド誤差は約32mmに達した。
実験は人工ガウス雑音を用いてMATLABに展開・評価された。
今後の研究は、ロボットシステムにシステムを実装することを目指している。
関連論文リスト
- GaussianFormer: Scene as Gaussians for Vision-Based 3D Semantic Occupancy Prediction [70.65250036489128]
3Dのセマンティック占有予測は,周囲のシーンの3Dの微細な形状とセマンティックスを得ることを目的としている。
本稿では,3Dシーンを3Dセマンティック・ガウシアンで表現するオブジェクト中心表現を提案する。
GaussianFormerは17.8%から24.8%のメモリ消費しか持たない最先端のメソッドで同等のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-27T17:59:51Z) - UniMODE: Unified Monocular 3D Object Detection [70.27631528933482]
我々は,鳥眼視(BEV)検出パラダイムに基づく検出器を構築した。
本稿では,この課題に起因する収束不安定性に対応するために,不均一なBEVグリッド設計を提案する。
統一検出器UniMODEが導出され、挑戦的なOmni3Dデータセットの先行技術を上回る。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Far3D: Expanding the Horizon for Surround-view 3D Object Detection [15.045811199986924]
本稿では、Far3Dと呼ばれるスパースクエリベースの新しいフレームワークを提案する。
高品質な2Dオブジェクトの事前利用により、3Dグローバルクエリを補完する3D適応クエリを生成する。
課題であるArgoverse 2データセット上でのSoTA性能を実証し,150mの範囲をカバーした。
論文 参考訳(メタデータ) (2023-08-18T15:19:17Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - 3D Harmonic Loss: Towards Task-consistent and Time-friendly 3D Object
Detection on Edge for Intelligent Transportation System [28.55894241049706]
本稿では,ポイントクラウドに基づく不整合予測を緩和する3次元高調波損失関数を提案する。
提案手法はベンチマークモデルよりも性能が大幅に向上する。
私たちのコードはオープンソースで公開されています。
論文 参考訳(メタデータ) (2022-11-07T10:11:48Z) - RVMDE: Radar Validated Monocular Depth Estimation for Robotics [5.360594929347198]
両眼視センサの固有剛性校正は正確な深度推定に不可欠である。
あるいは、単眼カメラは、深度推定の精度を犠牲にして制限を緩和し、厳しい環境条件下では課題が悪化する。
本研究は, 環境条件下での深度推定のために, 単眼カメラの細粒度データと融合した場合のレーダーからの粗い信号の有用性について検討する。
論文 参考訳(メタデータ) (2021-09-11T12:02:29Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Accurate 3D Object Detection using Energy-Based Models [46.05502630457458]
スパースLiDARデータに基づく乱雑な環境における3Dバウンディングボックスの回帰は極めて難しい問題である。
確率回帰のための条件付きエネルギーベースモデル(EBM)の最近の進歩について検討する。
提案手法は,SA-SSDのベースラインを全3DODメトリクスで一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-08T18:53:42Z) - Robust 6D Object Pose Estimation by Learning RGB-D Features [59.580366107770764]
本稿では、この局所最適問題を解くために、回転回帰のための離散連続的な新しい定式化を提案する。
我々はSO(3)の回転アンカーを均一にサンプリングし、各アンカーから目標への制約付き偏差を予測し、最適な予測を選択するための不確実性スコアを出力する。
LINEMOD と YCB-Video の2つのベンチマーク実験により,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T06:24:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。