論文の概要: High-precision target positioning system for unmanned vehicles based on
binocular vision
- arxiv url: http://arxiv.org/abs/2009.08040v1
- Date: Thu, 17 Sep 2020 03:33:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 11:38:29.702175
- Title: High-precision target positioning system for unmanned vehicles based on
binocular vision
- Title(参考訳): 両眼視に基づく無人車両の高精度目標位置決めシステム
- Authors: Xianqi He, Zirui Li, Xufeng Yin, Jianwei Gong, Cheng Gong
- Abstract要約: 両眼視に基づく高精度無人車両目標位置決めシステムを提案する。
本論文は、システムの出力結果の精度と計算時間を収集する。
実験データによると、システムの位置精度は0.61.17mm、角精度は1.95131である。
- 参考スコア(独自算出の注目度): 6.542633588522111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned vehicles often need to locate targets with high precision during
work. In the unmanned material handling workshop, the unmanned vehicle needs to
perform high-precision pose estimation of the workpiece to accurately grasp the
workpiece. In this context, this paper proposes a high-precision unmanned
vehicle target positioning system based on binocular vision. The system uses a
region-based stereo matching algorithm to obtain a disparity map, and uses the
RANSAC algorithm to extract position and posture features, which achives the
estimation of the position and attitude of a six-degree-of-freedom cylindrical
workpiece. In order to verify the effect of the system, this paper collects the
accuracy and calculation time of the output results of the cylinder in
different poses. The experimental data shows that the position accuracy of the
system is 0.61~1.17mm and the angular accuracy is 1.95~5.13{\deg}, which can
achieve better high-precision positioning effect.
- Abstract(参考訳): 無人車両はしばしば作業中に高い精度で目標を見つける必要がある。
無人材料処理ワークショップでは, 作業物を正確に把握するために, 作業物の高精度な姿勢推定を行う必要がある。
本稿では,両眼視に基づく高精度の無人車両目標位置決めシステムを提案する。
このシステムは、地域ベースのステレオマッチングアルゴリズムを用いて不一致マップを取得し、ransacアルゴリズムを用いて位置と姿勢の特徴を抽出し、6自由度円筒形のワークの位置と姿勢の推定を行う。
本報告では,システムの効果を検証するために,シリンダの出力結果の精度と計算時間を異なるポーズで収集する。
実験データによると、システムの位置精度は0.61~1.17mm、角精度は1.95~5.13{\deg}であり、精度の高い位置決め効果が得られる。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - SpecTrack: Learned Multi-Rotation Tracking via Speckle Imaging [7.048488981652353]
レーザースペックルイメージング(LSI)は、ポーズ推定精度を改善するための有望なポテンシャルを提供する。
提案するLSIベーストラッキング(SpecTrack)は,レンズレスカメラとレトロレフレクタマーカーを符号化開口で捕捉し,高精度な多軸回転ポーズ推定を実現する。
当社の社内ビルドテストベッドを使用した大規模な試験では、SpecTrackの精度は0.31degで、最先端のアプローチよりも大幅に向上し、精度は200%まで向上した。
論文 参考訳(メタデータ) (2024-10-08T13:29:52Z) - High-accuracy Vision-Based Attitude Estimation System for Air-Bearing
Spacecraft Simulators [0.0]
本稿では, 単眼カメラとフィデューシャルマーカーのセットを用いて, 回転空調プラットフォームに対する姿勢を計算するための, 新規で汎用的な手法について述べる。
システムパラメータの予備推定を行う自動校正手順を示す。
その結果,約12arcsecと$sim$37arcsecの順に1-sigmaの精度が期待された。
論文 参考訳(メタデータ) (2023-12-13T13:55:36Z) - Point Anywhere: Directed Object Estimation from Omnidirectional Images [10.152838128195468]
本研究では、全方位カメラを用いて、指さしアームのユーザ/オブジェクト位置制約と左右方向制約を除去する手法を提案する。
提案手法は,等方形画像から興味領域を抽出し,高精度な推定を可能にする。
論文 参考訳(メタデータ) (2023-08-02T08:32:43Z) - Anticipating Driving Behavior through Deep Learning-Based Policy
Prediction [66.344923925939]
我々は、通常のカメラで捉えたビデオフレームから得られる統合的な視覚特徴と、ポイント・クラウド・スキャナーから得られた奥行きの詳細を処理できるシステムを開発した。
このシステムは、車両の速度と操舵角度の両方を含む運転行動を予測するように設計されている。
評価の結果,テストシナリオの少なくとも半分において,予測値が有意な精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-20T17:38:55Z) - 6D Pose Estimation with Combined Deep Learning and 3D Vision Techniques
for a Fast and Accurate Object Grasping [0.19686770963118383]
リアルタイムロボットの把握は高度な自律システムにとって最優先の目標である。
本稿では,ディープニューラルネットワークを用いた高速な2次元物体認識を組み合わせた2段階手法を提案する。
提案手法は、効率と精度の両方を必要とせず、リアルタイムアプリケーションで堅牢に動作する可能性がある。
論文 参考訳(メタデータ) (2021-11-11T15:36:55Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Accurate Alignment Inspection System for Low-resolution Automotive and
Mobility LiDAR [125.41260574344933]
車両やロボットなどの移動システムにおいて,センサ装着後のLiDARアライメント誤差を正確に推定する検査システムを提案する。
提案手法は, 固定位置における1つのターゲットボードのみを用いて, 水平方向(回転, 傾き, ヨー)とLiDARアタッチメントの水平位置を, 水平方向の精度で推定する。
論文 参考訳(メタデータ) (2020-08-24T17:47:59Z) - Automatic LiDAR Extrinsic Calibration System using Photodetector and
Planar Board for Large-scale Applications [110.32028864986918]
本研究は, PD-target System と呼ばれる光検出器アレイを組み込んだターゲットボードの新たな概念を提案し, ターゲット表面上の対応レーザビームの正確な位置を求める。
提案手法を低分解能LiDARで実験した結果,LiDARオフセットポーズは0.1度と3mmの精度で推定可能であることがわかった。
論文 参考訳(メタデータ) (2020-08-24T16:28:40Z) - Vehicle Position Estimation with Aerial Imagery from Unmanned Aerial
Vehicles [4.555256739812733]
この研究は、航空画像から正確な車両の位置を推定する過程を記述する。
この目的のために最先端のディープニューラルネットワークMask-RCNNが適用される。
平均20cmの精度は、飛行高度100m、フルHD解像度、フレーム単位の検出で達成できる。
論文 参考訳(メタデータ) (2020-04-17T12:29:40Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。