論文の概要、ライセンス

# (参考訳) 平面形状に基づく単眼視覚オドメトリの高精度かつロバストなスケールリカバリ [全文訳有]

Accurate and Robust Scale Recovery for Monocular Visual Odometry Based on Plane Geometry ( http://arxiv.org/abs/2101.05995v1 )

ライセンス: CC BY 4.0
Rui Tian, Yunzhou Zhang, Delong Zhu, Shiwen Liang, Sonya Coleman, Dermot Kerr(参考訳) スケールあいまいさは単眼視覚のオドメトリーにおける根本的な問題である。 典型的なソリューションはループクロージャ検出と環境情報マイニングである。 自動運転車のようなアプリケーションでは、ループクロージャは必ずしも利用できないため、環境からの事前知識のマイニングがより有望なアプローチになる。 本稿では,地上のカメラの高さを一定と仮定して,高精度でロバストな地上面推定を用いた軽量スケールリカバリフレームワークを開発した。 本フレームワークは、地上面上の高品質な点を選択するための接地点抽出アルゴリズムと、抽出した接地点を局所滑り窓で接合する接地点集約アルゴリズムとを含む。 集約されたデータに基づいて、RANSACベースのオプティマイザを用いて最小二乗問題を解くことで、最終的にスケールが回復する。 十分なデータと堅牢なオプティマイザにより、高精度なスケールリカバリが可能になる。 KITTIデータセットの実験により,提案フレームワークは回転誤差の競合性能を維持しつつ,翻訳誤差の観点から最先端の精度を達成可能であることが示された。 軽量な設計のため、我々のフレームワークはデータセット上で20Hzの高周波数を示す。

Scale ambiguity is a fundamental problem in monocular visual odometry. Typical solutions include loop closure detection and environment information mining. For applications like self-driving cars, loop closure is not always available, hence mining prior knowledge from the environment becomes a more promising approach. In this paper, with the assumption of a constant height of the camera above the ground, we develop a light-weight scale recovery framework leveraging an accurate and robust estimation of the ground plane. The framework includes a ground point extraction algorithm for selecting high-quality points on the ground plane, and a ground point aggregation algorithm for joining the extracted ground points in a local sliding window. Based on the aggregated data, the scale is finally recovered by solving a least-squares problem using a RANSAC-based optimizer. Sufficient data and robust optimizer enable a highly accurate scale recovery. Experiments on the KITTI dataset show that the proposed framework can achieve state-of-the-art accuracy in terms of translation errors, while maintaining competitive performance on the rotation error. Due to the light-weight design, our framework also demonstrates a high frequency of 20Hz on the dataset.
公開日: Fri, 15 Jan 2021 07:21:24 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Accurate and Robust Scale Recovery for Monocular Visual Odometry 単眼視計測における精度とロバストスケールの回復 0.70
Based on Plane Geometry Rui Tian1, Yunzhou Zhang1∗, Delong Zhu2∗, Shiwen Liang1, Sonya Coleman3, Dermot Kerr3 平面幾何学に基づく Rui Tian1, Yunzhou Zhang1∗, Delong Zhu2∗, Shiwen Liang1, Sonya Coleman3, Dermot Kerr3 0.83
1 2 0 2 n a J 1 2 0 2 n a J 0.85
5 1 ] V C . 5 1 ] 略称はC。 0.73
s c [ 1 v 5 9 9 5 0 sc [ 1 v 5 9 9 5 0 0.68
. 1 0 1 2 : v i X r a . 1 0 1 2 : v i X r a 0.85
Abstract— Scale ambiguity is a fundamental problem in monocular visual odometry. abstract – scale ambiguity は単眼視覚のオドメトリーにおける根本的な問題である。 0.64
Typical solutions include loop closure detection and environment information mining. 典型的なソリューションはループクロージャ検出と環境情報マイニングである。 0.70
For applications like self-driving cars, loop closure is not always available, hence mining prior knowledge from the environment becomes a more promising approach. 自動運転車のようなアプリケーションでは、ループクロージャは必ずしも利用できないため、環境からの事前知識のマイニングがより有望なアプローチになる。 0.68
In this paper, with the assumption of a constant height of the camera above the ground, we develop a light-weight scale recovery framework leveraging an accurate and robust estimation of the ground plane. 本稿では,地上のカメラの高さを一定と仮定して,高精度でロバストな地上面推定を用いた軽量スケールリカバリフレームワークを開発した。 0.74
The framework includes a ground point extraction algorithm for selecting high-quality points on the ground plane, and a ground point aggregation algorithm for joining the extracted ground points in a local sliding window. 本フレームワークは、地上面上の高品質な点を選択するための接地点抽出アルゴリズムと、抽出した接地点を局所滑り窓で接合する接地点集約アルゴリズムとを含む。 0.75
Based on the aggregated data, the scale is finally recovered by solving a least-squares problem using a RANSAC-based optimizer. 集約されたデータに基づいて、RANSACベースのオプティマイザを用いて最小二乗問題を解くことで、最終的にスケールが回復する。 0.50
Sufficient data and robust optimizer enable a highly accurate scale recovery. 十分なデータと堅牢なオプティマイザにより、高精度なスケールリカバリが可能になる。 0.48
Experiments on the KITTI dataset show that the proposed framework can achieve state-of-the-art accuracy in terms of translation errors, while maintaining competitive performance on the rotation error. KITTIデータセットの実験により,提案フレームワークは回転誤差の競合性能を維持しつつ,翻訳誤差の観点から最先端の精度を達成可能であることが示された。 0.76
Due to the light-weight design, our framework also demonstrates a high frequency of 20Hz on the dataset. 軽量な設計のため、我々のフレームワークはデータセット上で20Hzの高周波数を示す。 0.75
I. INTRODUCTION Monocular Visual Odometry (MVO) is a popular method for camera pose estimation, but due to the scale ambiguity [1]–[5], the MVO system cannot provide real odometry data. I 導入 モノクローナル・ビジュアル・オドメトリー(MVO)は、カメラポーズ推定の一般的な方法であるが、スケールのあいまいさ[1]-[5]のため、MVOシステムは実際のオドメトリーデータを提供できない。 0.53
Therefore, an accurate and robust scale recovery algorithm is of great significance in the application of MVO [6]. したがって, MVO [6] の適用において, 高精度でロバストなスケール回復アルゴリズムが重要である。 0.86
The key of scale recovery is to integrate absolute reference information, such as the gravity orientation from IMU [7] or the depth measured by Lidar [8], [9]. スケールリカバリの鍵は、imu[7]からの重力方向やlidar[8], [9]で測定された深さといった絶対参照情報を統合することである。 0.68
The baseline of stereo cameras can also serve as such a reference [10]. ステレオカメラのベースラインは、そのような参照 [10] としても機能する。 0.64
However, these sensors are not always available in real-world applications. しかし、これらのセンサーは現実世界のアプリケーションでは必ずしも利用できない。 0.62
Moreover, a complicated sensor calibration and fusion process is needed to align the MVO system with other sensors. さらに、MVOシステムを他のセンサと整合させるためには、複雑なセンサー校正と融合プロセスが必要である。 0.73
Another frequently used method for removing scale ambiguity is to take as reference the height of a mounted camera above the ground plane, which remains a stable signal during the navigation of vehicles. スケールの曖昧さを取り除くもう1つの方法は、車両の航行中に安定した信号が残る地上面上の搭載カメラの高さを基準にすることである。 0.72
The idea is to estimate a ratio between the real camera height and the relative one 実際のカメラの高さと相対値の比率を推定する。 0.59
∗The corresponding author of this paper. 1Rui Tian, Yunzhou Zhang and Shiwen Liang are with College of Information Science and Engineering, Northeastern University, Shenyang 110819, China (Email: zhangyunzhou@mail.ne u.edu.cn). ∗本論文の著者。 1Rui Tian, Yunzhou Zhang, Shiwen Liangは、北イースタン大学情報科学工学部、シェニヤン110819, 中国(Eメール:zhangyunzhou@mail.n eu.edu.cn)に加盟している。 0.59
2Delong Zhu is with the Department of Electronic Engineering, The Chinese University of Hong Kong, Shatin, N.T., Hong Kong SAR, China (Email: zhudelong@link.cuhk. edu.hk). 2Delong Zhuは香港の中国大学、シャチン、香港SAR(Eメール: zhudelong@link.cuhk. edu.hk)の電子工学部に所属している。
訳抜け防止モード: 2Delong Zhuは香港の中国大学電子工学科に所属している。 Shatin, N.T., Hong Kong SAR, China (Email: zhudelong@link.cuhk. edu.hk )
0.93
3Sonya Coleman and Dermot Kerr are with School of Computing and 3Sonya ColemanとDermot KerrがSchool of Computingと提携 0.84
Intelligent Systems,Ulster University, N. Ireland, UK. Intelligent Systems, Ulster University, N. Ireland, UK (英語) 0.83
This work was supported by National Natural Science Foundation of China (No. この研究は中国国立自然科学財団が支援した(No。 0.74
61973066,61471110) , Equipment Pre-research Fundation(6140312011 1). 61973066,61471110),機器プレリサーチ資金(61403120111)。 0.85
calculated from image features. 画像特徴から計算する。 0.81
The ratio then can be used to recover the real scale. このときの比率は、実際のスケールを回復するために使用できる。 0.67
The advantages of this method are significant since it does not depend on other sensors and is with high feasibility. この方法の利点は、他のセンサーに依存しず、実現性が高いため重要である。 0.67
The method is also regarded as one of the most promising solutions in this research area. この手法は、この研究分野でもっとも有望な解決策の1つと考えられている。 0.63
Prior work like [1], [2], [11], [12] typically leverages the results of feature matching to calculate the homography matrix and then decompose the matrix to estimate the parameters of the ground plane, based on which the relative camera height can be obtained. [1], [2], [11], [12] のような以前の研究は、通常、特徴マッチングの結果を利用してホモグラフィ行列を計算し、その後、その行列を分解して、相対的なカメラ高さが得られる基底面のパラメータを推定する。 0.73
The major deficiency of this method is that the decomposition is very sensitive to noises and multiple solutions exist, which requires additional operations to eliminate the ambiguity. この方法の主な欠点は、分解がノイズに非常に敏感であり、複数の解が存在することである。
訳抜け防止モード: この方法の主な欠点は 分解はノイズに非常に敏感です 複数の解決策が存在します 曖昧さをなくすには追加の操作が必要です。
0.69
Some other work like [12], [13] chooses to directly fit the ground plane using feature points that lie on the ground, e g , the center regions of a road. 他にも[12],[13] のような作業では,道路の中心部分など,地上にある特徴点を用いて,地上面に直接適合させることを選択している。 0.85
By removing low-quality image features outside the target region, the robustness is improved. 対象領域外の低品質の画像特徴を除去することにより、ロバスト性が向上する。 0.64
However, the target region may be occluded sometimes, which interferes with the detection of image features, thus degrading the accuracy of scale recovery. しかし、対象領域が時々閉塞されることがあり、画像特徴の検出を妨げるため、スケールリカバリの精度が低下する。 0.61
In recent work [14]–[18], deep learning based MVO algorithms are proposed, in which the camera pose with a real scale is directly predicted by the neural network in an end-to-end manner. 最近の研究[14]–[18]では、ニューラルネットワークによって、カメラが実際のスケールでポーズするディープラーニングベースのmvoアルゴリズムがエンドツーエンドで直接予測される。
訳抜け防止モード: 近年の[14]–[18 ]では,ディープラーニングに基づくMVOアルゴリズムが提案されている。 実際のスケールでのカメラのポーズは、エンドツーエンドでニューラルネットワークによって直接予測される。
0.77
Such methods have received much attention in recent years, but their generalization ability across different scenarios is very limited [18]. 近年,このような手法が注目されているが,様々なシナリオにまたがる一般化能力は非常に限られている[18]。 0.74
Some other deep learning based methods take scale recovery as an independent problem. 他のディープラーニングベースの手法は、スケールリカバリを独立した問題としている。 0.50
For instance, DNet [16] is proposed to perform ground segmentation and depth regression simultaneously. 例えば、DNet [16] は地上分割と深度回帰を同時に行うために提案されている。 0.66
Based on the predicted depth points within the ground region, a dense geometrical constraint is then formulated to help recover the scale. 基底領域内の予測深度に基づいて、密度の強い幾何学的制約を定式化し、スケールを回復する。 0.65
In [17], a scale-recovery loss is developed based on the idea of enforcing the consistency between the known camera height and the predicted one. 17]では、既知のカメラの高さと予測されたカメラの高さとの一貫性を強制するという考えに基づいてスケールリカバリ損失が形成される。
訳抜け防止モード: 17]では-回復損失が発達する 既知のカメラの高さと予測値との一貫性を 強化するというアイデアに基づいています
0.69
Constrained by this loss, the neural network can predict more accurate ego poses. この損失によって、ニューラルネットワークはより正確なエゴポーズを予測することができる。 0.60
Nonetheless, these methods usually require a large-scale training process, and the computational cost is prohibitively expensive. しかしながら、これらの手法は通常、大規模なトレーニングプロセスを必要とし、計算コストは違法に高価である。 0.60
In this paper, we propose a light-weight method for accurate and robust scale recovery based on plane geometry. 本論文では,平面形状に基づく高精度でロバストなスケール回復のための軽量な手法を提案する。 0.76
The method includes an efficient Ground Point Extraction (GPE) algorithm based on Delaunay triangulation [19] and a Ground Points Aggregation (GPA) algorithm for aggregating ground points from consecutive frames. 本手法は,Delaunay三角法[19]に基づく効率的な接地点抽出(GPE)アルゴリズムと,連続したフレームから接地点を集約する接地点集約(GPA)アルゴリズムを含む。 0.80
Based on these two algorithms, a large number of high-quality ground points are selected. これら2つのアルゴリズムに基づいて、多数の高品質な基底点が選択される。 0.73
For scale recovery, we first formulate a least-square problem to fit the ground plane and then estimate the relative camera height to calculate the real scale. スケール回復のために,まず,地上面に適合する最小二乗問題を定式化し,その相対カメラ高さを推定して実規模を計算する。 0.77
By leveraging 利用することで 0.51
英語(論文から抽出)日本語訳スコア
Fig. 1. Overview of the proposed system. フィギュア。 1. 提案システムの概要 0.60
There are two parallel threads in the system: 1) The MVO thread takes image frames as input and estimates the current camera pose, 2) The GPE-GPA thread fetches image features from the MVO thread and selects high-quality points for ground plane estimation. システムには2つの並列スレッドがある: 1) MVOスレッドは画像フレームを入力として取り、現在のカメラのポーズを推定する; 2) GPE-GPAスレッドはMVOスレッドから画像の特徴をフェッチし、地上平面推定のために高品質な点を選択する。 0.65
the high-quality points and a RANSAC-based optimizer, the scale can be estimated accurately and robustly. 高品質な点とRANSACベースのオプティマイザは、そのスケールを正確かつ堅牢に推定することができる。
訳抜け防止モード: 高品質なポイントとRANSACベースのオプティマイザ。 スケールを正確に しっかり推定できます
0.68
Benefiting from the light-weight design of the algorithms, our method can achieve a 20Hz running frequency on the benchmark dataset. 提案手法は, アルゴリズムの軽量設計により, ベンチマークデータセット上で20Hzの動作周波数を達成できる。 0.76
The main contributions of this work are as follows: • We propose a GPE algorithm based on Delaunay trian- 本研究の主な貢献は以下の通りである。 • Delaunay trian に基づく GPE アルゴリズムを提案する。 0.84
gulation, which can accurately extract ground points. グレーションは グラウンドポイントを正確に抽出できる 0.60
• We propose a GPA algorithm that can effectively aggregate local ground points and perform robust optimization of the ground plane parameters. • 局所的な接地点を効果的に集約し,地平面パラメータのロバストな最適化を行うGPAアルゴリズムを提案する。 0.79
• Based on the proposed algorithms, we implement a real-time MVO system with accurate and robust scale recovery, aiming to reduce scale drift and provide accurate odometry in long-distance navigations without loop closure. 提案手法に基づき,ループ閉鎖を伴わない長距離航法において,スケールドリフトの低減と正確なオドメトリの実現を目的として,高精度かつロバストなスケールリカバリを実現するリアルタイムmvoシステムを実装した。
訳抜け防止モード: •提案手法に基づき,高精度かつロバストなスケールリカバリを行う実時間mvoシステムを実装した。 ループ閉鎖を伴わない長距離航法におけるスケールドリフトの低減と正確なオドメトリーの実現を目指す。
0.76
II. SYSTEM OVERVIEW II。 システム概要 0.72
The notations used in this paper are as follows: • Tt ∈ R4×4 - The camera pose of image frame It in the global frame, which is composed of a camera orientation Rt ∈ R3×3 and a translation tt ∈ R3×1. • tt ∈ r4×4 - カメラの向き付け rt ∈ r3×3 と変換 tt ∈ r3×1 からなる大域的なフレーム内の画像フレームのカメラポーズ。
訳抜け防止モード: • Tt ∈ R4×4 - 大域的フレームにおける画像フレームのカメラポーズ。 これはカメラ向きの Rt ∈ R3×3 と変換 tt ∈ R3×1 から構成される。
0.70
• Tt,t−1 - The relative pose of frame It−1 w.r.t. • Tt,t−1 - フレーム It−1 w.r.t の相対的なポーズ。 0.63
frame It. • K - The intrinsic matrix of a pinhole camera model. フレームを組む。 • k - ピンホールカメラモデルの固有行列。 0.62
• xi, ui - The 3D map point in camera frame and its corresponded 2D point on image plane after projection. • xi, ui - カメラフレーム内の3Dマップポイントと投影後の画像平面上の2Dポイントに対応する。 0.86
• nt, ht - The plane parameters, i.e., nt · xi − ht = 0, where nt is the normal vector and ht is the distance to the plane. ~ nt, ht - 平面パラメータ、すなわち nt · xi − ht = 0 であり、ここで nt は正規ベクトル、ht は平面との距離である。 0.68
• h, h†, h∗ – The calculated camera height form image features, the estimated camera height after scale recovery, and the real camera height. • h, h, h∗ – 計算されたカメラの高さは画像の特徴、スケール回復後の推定カメラ高さ、実際のカメラ高さである。 0.79
A. Problem Definition Given consecutive image frames from a calibrated monocular camera, our goal is to estimate the absolute scale of camera poses and then recover the real camera trajectory by making use of the prior known camera height h∗. A。 問題定義 調整された単眼カメラからの連続した画像フレームを与えられた場合,本研究の目的はカメラポーズの絶対スケールを推定し,既知のカメラ高さh∗を用いて実際のカメラ軌道を復元することである。 0.72
Under scale ambiguity, the camera height h calculated from image features maintains a ratio with the real one, i.e., s = h∗/h. 下 画像特徴量から算出されたカメラの高さhは、実際のもの、すなわち s = h∗/h との比を維持する。 0.67
Therefore, scale recovery is essentially to compute s, and the key lies in the accurate estimation of the ground plane. したがって、スケールリカバリは基本的にsを計算することであり、鍵は地上面の正確な推定にある。 0.75
B. System Architecture B。 システムアーキテクチャ 0.75
The proposed system in this work is shown in Fig 1. 本研究で提案するシステムは,図1に示す。 0.75
There are two parallel threads in the system: The first one is the MVO thread, which takes consecutive images as input and estimates the current camera pose, e g , the ORB-SLAM2 framework. 1つはMVOスレッドで、連続した画像を入力として取り、現在のカメラのポーズ、例えばORB-SLAM2フレームワークを推定する。
訳抜け防止モード: システムには2つの並列スレッドがあります。1つはmvoスレッドです。 連続した画像を入力として、現在のカメラのポーズを推定します。 例えば、orb - slam2フレームワークなどです。
0.67
The second thread is used to run the GPE and GPA algorithms for scale recovery. 2番目のスレッドはスケール回復のためにGPEとGPAアルゴリズムを実行するために使用される。
訳抜け防止モード: 2つ目のスレッドは スケールリカバリのための gpe と gpa アルゴリズムを実行する。
0.74
The proposed system is based on such an assumption that the ground is locally flat and can be approximated by a plane with a surface normal. 提案システムは,地面が局所的に平坦であり,表面が正常な平面で近似できるという仮定に基づいている。 0.79
The workflow of the second thread is as follows. 第2スレッドのワークフローは以下のとおりである。 0.76
As shown in the red block in Fig 1, for each image frame from the MVO thread, the Delaunay triangulation is first applied to segment the matched feature points into a set of triangles. 図1の赤いブロックに示すように、MVOスレッドの各画像フレームに対して、デラウネー三角法が最初に適用され、一致する特徴点を三角形の集合に分割する。 0.74
Each triangle is then back-projected into the camera frame, and the associated plane parameters are also estimated. それぞれの三角形はカメラフレームに逆投影され、関連する平面パラメータも推定される。 0.78
After that, several geometrical constraints are leveraged to select and then refine ground points. その後、幾何的制約を利用して、接地点を選択して洗練する。 0.55
Note that selected ground points are not enough for an accurate estimation of the plane parameters. 選択した接地点が平面パラメータの正確な推定に十分でないことに注意。 0.85
We thus propose the GPA algorithm to aggregate ground points from multiple frames using a sliding windows method, as shown in the orange block of Fig 1. 図1のオレンジブロックに示すように、スライドウインドウ法を用いて、複数のフレームからグラウンドポイントを集約するGPAアルゴリズムを提案する。 0.72
Based on the aggregated local points, a robust parameter estimation procedure is then performed to fit the ground plane. 集約された局所点に基づいて、地平面に合うように頑健なパラメータ推定手順が実行される。 0.72
Accordingly, the relative camera height of each frame can be estimated, and the absolute camera trajectory is recovered, shown in the blue block of Fig 1. これにより、各フレームの相対カメラ高さを推定し、図1の青いブロックに示すように絶対カメラ軌跡を復元することができる。 0.85
III. GROUND PLANE ESTIMATION III。 地平面推定 0.54
A. Ground Point Extraction A。 グラウンドポイント抽出 0.69
For a given set of matched feature points ut 一致する特徴点 ut のセットに対して 0.78
i, i ∈ {1, 2, . i, i ∈ {1, 2, . 0.85
. . , N}, in the current image frame It, the Delaunay triangulation uses each of the feature points as a triangle vertex. . . , n} 現在の画像フレームでは、delaunay三角測量は各特徴点を三角形頂点として使用する。 0.82
We back-project the triangles from the image plane i, i ∈ into the current camera frame and denote them by ∆t 我々は、画像平面 i, i ∈ から現在のカメラフレームに三角形をバックプロジェクションし、それらを表す。 0.75
t-1Plane NormalnynxnZCamera HeighttZYXFeatureMat chingMonocular InitializationTrack Local MapUnscaled PoseR tFeature MatchedTrackingDelau nay TriangulateGround Points Selection andRefinementMulti-F ramesGround Point Aggregation(GPA)Scal e FactorsImage SequencesScale recoveryNormal VectorsGround Point Extraction (GPE)Sliding Window*,-1,1ttttttst */tshhRescaled TrajectoryPlane Parameters EstimationRANSAC-Bas ed Optimization t-1plane normalnynxnz camera heighttzyxfeaturemat ching monocular initializationtrack local mapunscaled poser tfeature matchedtrackingdelau nay triangulate points selection and refinement multi-framesground point aggregation(gpa)scal e factors image sequencesscale recoverynormal vectorsground extraction (gpe)sliding window*,-1,1tttttst& gt;*/tshh/rescaled trackingplane parameters estimationransac-bas ed optimization 0.74
英語(論文から抽出)日本語訳スコア
{1, 2, . . {1, 2, . . 0.85
. M} associated with a set of vertices xt {1, 2, 3}. . m} は一連の頂点 xt {1, 2, 3} と関連している。 0.81
The normal vector nt triangle can be obtained by the cross product, 正規ベクトル nt の三角形は、交叉積によって得られる。 0.79
i = (nt ij, j ∈ i,z) of each i = (nt) ij, j ∈ i,z) それぞれについて 0.88
i,x, nt i,y, nt i,x,nt 私、私、私、nt 0.71
nt i = i1 − xt (xt i1 − xt ||(xt nt i = i1 − xt (xt i1 − xt ||(xt) 0.86
i2) × (xt i2) × (xt i2) × (xt i2) × (xt) 0.92
i1 − xt i3) i3)||2 i1 − xt i1 − xt i3) i3)||2 i1 − xt 0.78
, (1) where nt the following geometrical constraint then holds: , (1) ここでは 以下の幾何学的制約が成り立ちます 0.78
i has an unit length. For each vertex of the triangle, 私は単位長です。 三角形の各頂点について 0.66
i · xt nt ij − ht i · xt nt ij − ht 0.85
i = 0. (2) i = 0。 (2) 0.81
Therefore, ht i can also be estimated. したがって、ht 推定もできます。 0.64
Here, we also add two additional constraints, i.e., nt i > 0, based on the fact that the camera is mounted on the top of the vehicle and is above the ground plane, as shown in Fig 1. ここでは、図1に示すように、カメラが車両の上部に装着され、地上面の上に置かれているという事実に基づいて、さらに2つの制約、すなわち nt i > 0 を加える。 0.77
i,y > 0 and ht i,y > 0 と ht 0.84
Note that the triangles are scattered in the whole image plane, hence we need to identify the ones located on the ground plane, named ground triangles, for estimating the plane parameters. 注意すべきは、三角形は画像平面全体に散在しているため、平面パラメータを推定するために、地上面上に位置する三角形を識別する必要があることである。 0.75
Based on the fact that the normal of a ground triangles is orthogonal to camera translation tt,t−1, and that the pitch angle of the camera is zero, the ground triangles can be identified by testing with the following constraints, 接地三角形の正規化はカメラ翻訳tt,t−1と直交し、カメラのピッチ角がゼロであるという事実に基づいて、以下の制約で検定することで、接地三角形を同定することができる。 0.81
arccos(nt | arctan(− R32 R33 arccos(nt | arctan(− R32 R33) 0.89
i, tt,t−1) = 0, )| = 0, R33 (cid:54)= 0. i, tt,t−1) = 0, )| = 0, R33 (cid:54) = 0。 0.94
(3) In practice, the equality condition cannot be strictly satisfied. (3) 実際には、平等条件を厳密に満たすことはできない。 0.79
We thus set a tolerance value of 5◦ in the actural implementation. したがって、実演的な実装では、許容値が 5 > となる。 0.51
For ground triangles that satisfy the above constraints, ij, i ∈ their vertices are categorized into a new point set ˜xt {1, 2, . 上記の制約を満たす基底三角形に対して、その頂点 ij, i ∈ は、新しい点集合 sxt {1, 2, に分類される。 0.73
. . K}, j ∈ {1, 2, 3}, K<M. . . K, j ∈ {1, 2, 3}, K<M。 0.80
Since the same vertex point may be shared by multiple triangles, we also need to remove the repetitive ones from the point set. 同じ頂点点を複数の三角形で共有できるので、反復的な点を点集合から取り除くことも必要である。 0.77
This will ensure the same contribution of each point to the ground plane estimation. これにより、各点の地上平面推定に対する同じ寄与が保証される。 0.80
The ground points are now initially segmented out, dek ∈ G, but there may still exist some outliers noted by ˜xt introduced by moving objects and some remote points. グラウンドポイントは、最初は dek ∈ G で区切られているが、移動物体といくつかの遠隔点によって導入されるシュクストによって指摘されるいくつかの外れ値が存在するかもしれない。 0.56
To further improve the quality of G, a RANSAC-based method is leveraged to optimize ˜xt k, which minimizes a plane-distance error as follows, G の品質をさらに向上させるため、RANSAC ベースの手法を用いて、以下の平面距離誤差を最小限に抑える shxt k を最適化する。 0.71
|G|(cid:88) |G|(cid:88) 0.65
g=1 min g∈G ˜xt g=1 min (複数形 mins) 0.46
||nt · ˜xt g − ht||2. ||nt · g − ht||2。 0.67
(4) In the implementation, we randomly sample three points to estimate a new plane with eq. (4) 実装では、eqで新しい平面を推定するためにランダムに3点をサンプリングする。 0.76
(1)-(2), and then we calculate the total distance of the remaining points to the estimated plane. (1)-(2)で、残りの点から推定平面までの距離を計算する。 0.57
Such a process repeats Z times, and the plane that induces the minimum total distance error is reserved. このようなプロセスはZ回繰り返し、最小全距離誤差を誘導する平面が予約される。 0.76
The points with a distance larger than 0.01m to the reserved plane are then removed. そして、リザーブド平面と0.01m以上の距離を持つ点を除去する。 0.75
This is actually a more strict criterion for ground point selection. これは実際には、接点選択のより厳格な基準である。 0.63
After this process, only high-quality ground points are reserved. このプロセスの後、高品質なグラウンドポイントのみが予約される。 0.55
In Alg. 1, we present a complete procedure of the GPE algorithm, which gives more details about the proposed implementation. alg所属。 GPEアルゴリズムの完全なプロシージャを提案し,提案手法の詳細な実装について述べる。 0.56
ij ij end end ij ij 終わり 終わり 0.80
{˜xt xt (複数形 xts) 0.17
i > 0 then i > 0 である。 0.70
i by Eq (1) i by Eq (2) i by Eq (1) i by Eq (2) 0.85
i}, j = {1, 2, 3} do ij=K−1ut i}, j = {1, 2, 3} do ij=K−1ut 0.93
i}← DELAUNAYTRIANGULATIO N(ut i) 英語) delaunaytriangulatio n(ut i) 0.38
ij ∈ {∆t back-project xt calculate nt calculate ht )| < θ1 & ht if | arctan(− R32 R33 if arccos(nt i, tt,t−1) < θ2 then ij} ∪ xt nt を計算して ht )| < θ1 & ht if | arctan(− r32 r33 if arccos(nt i, tt,t−1) < θ2 then ij} とする。 0.81
Algorithm 1: Ground Point Extraction (GPE) Input: ut i , Rt,t−1, tt,t−1 g} Output: {˜xt 1 {∆t ij} ← ∅ 2 triangles points set {˜xt k} ← ∅ 3 segmented points set {˜xt 4 ground points set Gbest ← ∅ 5 temp ground points set Gk ← ∅ 6 for each ut 7 8 9 10 11 12 13 14 15 end 16 delete repeate vertices and get {˜xt 17 /* ensure enough points */ 18 while size ({˜xt k}) > 5 do for iterations < Z do 19 randomly select xt 1, xt 20 calculate nt by Eq (1) 21 g in {˜xt k} do for ˜xt 22 D ← |nt · ˜xt g − ht| by Eq (4) 23 if D < dthresh then 24 g} Gk ∪ {˜xt 25 26 27 28 29 30 31 32 33 34 end Algorithm 1: Ground Point Extraction (GPE) Input: ut i , Rt,t−1, tt,t−1 g} Output: {˜xt 1 {∆t ij} ← ∅ 2 triangles points set {˜xt k} ← ∅ 3 segmented points set {˜xt 4 ground points set Gbest ← ∅ 5 temp ground points set Gk ← ∅ 6 for each ut 7 8 9 10 11 12 13 14 15 end 16 delete repeate vertices and get {˜xt 17 /* ensure enough points */ 18 while size ({˜xt k}) > 5 do for iterations < Z do 19 randomly select xt 1, xt 20 calculate nt by Eq (1) 21 g in {˜xt k} do for ˜xt 22 D ← |nt · ˜xt g − ht| by Eq (4) 23 if D < dthresh then 24 g} Gk ∪ {˜xt 25 26 27 28 29 30 31 32 33 34 end 0.92
end if size (Gk) > size (Gbest) then サイズ (Gk) > サイズ (Gbest) の場合、終了する。 0.81
end end g} ← Gbest {˜xt g} return {˜xt 終端 g {\displaystyle g} > Gbest { .xt g} return { .xt 0.79
k} ⊂ {˜xt ij} k {\displaystyle k} は axt ij} 0.78
3 ∈ {˜xt k} 3 ∈ { yxt k} 0.83
2, xt end Gbest ← Gk // best model select 2 xt 終わり Gbest > Gk // best model select 0.69
B. Ground Point Aggregation B。 グラウンドポイント・アグリゲーション 0.71
Due to the strict criteria by GPE, the inliers are not enough for accurate estimation of the ground plane. GPEによる厳密な基準のため、インレーヤは地上面の正確な推定には不十分である。 0.70
Therefore, we propose the GPA algorithm to aggregate ground points from consecutive image frames. そこで我々は,連続した画像フレームからグラウンドポイントを集約するGPAアルゴリズムを提案する。 0.72
As shown in Fig 2, we leverage the sliding window method to select image frames, and a frame buffer is maintained to store the camera poses and ground points in the current window. 図2に示すように、スライディングウィンドウ法を利用して画像フレームを選択し、フレームバッファを維持して、カメラのポーズとグラウンドポイントを現在のウィンドウに格納する。 0.83
At each time step, with the arrival of a new image frame, we update the buffer and then estimate the ground plane by solving a least-squares problem. 各ステップにおいて、新しい画像フレームが到着するとバッファを更新し、最小二乗問題を解くことで地上平面を推定する。 0.70
From the MVO thread, we can get the pose Tt and the g of each frame from the buffer. MVOスレッドから、バッファから各フレームのポーズ Tt と g を得ることができます。 0.61
We then can gi, into the global そして私たちは、グローバルに、giを組み込むことができます 0.51
inliers xt transform each of the inliers, denoted by xt frame, イリアー xt は xt フレームで示される各イリアーを変換します 0.55
pi = Tt [xt pi = Tt[xt] 0.95
gi, 1]T . (5) gi, 1]T。 (5) 0.78
英語(論文から抽出)日本語訳スコア
Algorithm 2: Ground Points Aggregation (GPA) g}, Tt Input: It, {xt Output: {ht} 1 buffer {queue} ← ∅ 2 inliers in global frame {pt} ← ∅ 3 inliers in current frame {xt g} ← ∅ 4 reserved ground points {p∗ k} ← ∅ 5 camera heights {ht} ← ∅ 6 while It is not empty do 7 8 9 Algorithm 2: Ground Points Aggregation (GPA) g}, Tt Input: It, {xt Output: {ht} 1 buffer {queue} </ > 2 inliers in global frame {pt} 《3 inliers in current frame {xt g} > 《4 reserve ground point {p∗ k} > 《5 camera heights {ht} > > 6 while it is empty do 7 8 9 while it is not empty do 7 8 9. 0.87
{queue} ∪ {It} if size({queue}) > 4 then POP FRONT({queue}) // fixed number of frames for each It in {queue} do calculate pi by Eq (5) {pt} ∪ {pi} if size({queue}) > 4 then POP FRONT({queue}) // 固定されたフレーム数 {queue} は Eq (5) {pt} > {pi} で pi を計算する。 0.72
end Matrix Pt calculate Σ = σ−2 端行列 Pt は Σ = σ−2 を計算する 0.64
Matrix z I // Wighting マトリックス z I // ワイティング 0.76
Fig. 2. Illustration of the GPA algorithm. フィギュア。 2. GPAアルゴリズムの図表化。 0.67
In the bottom-left figure, the red dots indicate ground points, and the green line segment is the normal of each triangle. 左下の図では、赤い点が接地点を示し、緑の線分は各三角形の正規点である。 0.71
In the bottom-right figure, the red quadrilateral is the estimated ground plane based on the aggregated ground points in the current window. 右下図では、赤の四角形は現在の窓の集計された接地点に基づく推定接地平面である。 0.72
10 11 12 13 14 15 10 11 12 13 14 15 0.85
Suppose there are N local ground points in the buffer, the least-squares problem that minimizes the plane-distance error of these points is formulated as follows: バッファに n 個の局所接地点があるとすると、これらの点の平面距離誤差を最小化する最小二乗問題は次のように定式化される。 0.64
N(cid:88) i=1 n(cid:88) i=1 0.68
min µ (cid:107)µT pi(cid:107)2 = min ミン µ (cid:107)μT pi(cid:107)2 = min 0.72
µ µPtPt T µT , µ μPtPt TμT。 0.78
µ =[nt,−ht]T , μ =[nt,−ht]t , 0.75
(6) where Pt = [p1, p2,··· , pN ] ∈ R4×N . (6) ここで Pt = [p1, p2,··· , pN ] ∈ R4×N となる。 0.82
Equation (6) can be rewritten as follows: 式(6)は次のように書き換えることができる。 0.68
min µ µQtµT , ミン µ μQtμT。 0.59
Qt = PtP T Qt = PtP T 0.85
t ∈ R4×4, (7) t ∈ R4×4, (7) 0.79
which can then be efficiently solved by the SVD method. これをsvd法で効率的に解くことができる。 0.51
To further improve the estimation accuracy of µ, we also introduce a weighting matrix Σ = σ−2 z I, where σz is the normalized distance of the point depth to their mean value. μ の推定精度をさらに向上するため、重み行列 Σ = σ−2 z I を導入し、σz は点深さから平均値への正規化距離である。 0.77
As a result, the matrix Q in Eq (7) becomes, その結果、Eq (7) の行列 Q が成り立つ。 0.64
Qt = PtΣP T Qt = PtΣP T 0.84
t ∈ R4×4. (8) t ∈ R4×4。 (8) 0.77
Another important refinement on the estimated plane parameter is to conduct a RANSAC-based optimization, which shares the same idea as Eq (4). 推定平面パラメータのもう1つの重要な改善は、Eq (4) と同じアイデアを共有する RANSAC ベースの最適化を実行することである。 0.77
In each iteration of the optimization, we first estimate µ, and then calculate the distance between pi and the estimated plane. 最適化の各イテレーションにおいて、まず μ を推定し、次に pi と推定平面の間の距離を計算する。 0.78
Points with a distance larger than 0.01m are removed, and the remaining is then leveraged to estimate a new µ. 0.01m以上の距離を持つ点を除去し、残りの点を利用して新しいμを推定する。 0.83
Such a process continues until convergence. このようなプロセスは収束するまで続く。 0.70
We denote the final plane normal by n∗ t and k, k ∈ {1, 2,··· , K}. n∗ t と k, k ∈ {1, 2,··· , K} で最終平面を正規に表現する。 0.64
The the reserved ground points by p∗ relative camera height then can be calculated by projecting the camera center to the ground plane: t · (pc − p∗ k), このとき、カメラ中心を接地平面に投影することで、p∗相対カメラ高さによる予約された接地点を計算することができる: t · (pc − p∗ k)。 0.76
j = n∗ ht (9) j = n∗ ht (9) 0.92
16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 end 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 end 0.85
calculate Qt by Eq (8) µ ← SVDDECOMPOSITION(Q) Qt を Eq (8) μ × SVDDECOMPOSITION(Q) で計算する 0.91
end for iteration < Z do end for iteration (複数形 end for iterations) 0.57
Randomly select ps ∈ {pt} D ← µT · ps if D > dthresh then d > dthresh ならば、ランダムに ps ∈ {pt} d , μt · ps を選ぶ。 0.78
Remove ps in {pt} k} ← {pt} ps を {pt} k} > {pt} に除去する 0.82
end {p∗ calsulate Qs by Eq (8) Q ← Qs µs ← SVDDECOMPOSITION(Q) µ ← µs // update model end {p∗ calsulate Qs by Eq (8) Q > Qs μs > SVDDECOMPOSITION(Q) μ > μs // update model 0.82
end for p∗ in {p∗ k} do calculate ht j by Eq (9) j} {ht} ∪ {ht p∗ k} における p∗ の終端は eq (9) j} {ht} で ht j を計算する。 0.83
end return {ht} end return (複数形 end returns) 0.59
heights, which will be further processed to recover a smooth scale. 高さは、滑らかなスケールを回復するためにさらに処理される。 0.70
Details of the GPA algorithm are presented in Alg. gpaアルゴリズムの詳細はalgで示されている。 0.72
2. C. Filter-Based Scale Recovery 2. C.フィルタによるスケールリカバリ 0.76
After we compute the relative camera height h of each frame, the scale factor is then obtained by st = h∗/h, the motion scale of each frame is recovered by 各フレームの相対カメラ高さhを計算した後、st = h∗/hでスケール係数を求め、各フレームの運動スケールを復元する。 0.72
† t,t−1 = st ∗ tt,t−1. t,t−1 = st ∗ tt,t−1。 0.79
t (10) Corresponding to the multiple h values in Eq (9), there t (10) eq (9) における多重 h 値に対応する 0.82
are also multiple estimated scales. 複数の推定スケールがあります 0.66
where pc is the camera center of frame It in the global frame. pcがカメラの中心で グローバルフレームでフレーム化されています 0.81
It is worth noting that there are K estimated camera なお、カメラはK台と推定されている。 0.62
By plotting the scaled camera heights of each frame in the figure, shown in Fig 3(a), we find the data do not strictly 図3(a)に示すように、各フレームのカメラの高さを図にプロットすることで、データは厳密には得られないことがわかった。 0.65
Frame Buffer Sliding Window1. Frame Buffer Sliding Window1。 0.89
Local Ground Points Aggregation2. Local Plane Parameters OptimizationPushPopt t+1t+2t+3Ground PointsLocal Ground PointsPlane NormalNewFrameFrontF rame 局所接地点集約2。 局所平面パラメータ最適化PushPoptt+1t+2t+3Ground PointsLocal Ground PointsPlane NormalNewFrameFrontF rame 0.58
英語(論文から抽出)日本語訳スコア
follow a Gaussian distribution. Therefore, we choose the median point as the scale of the current frame. ガウス分布に従う。 したがって、現在のフレームのスケールとして中央値を選択する。 0.67
In the time domain, a moving average filter is applied, shown in Fig 3(b), which can give a more smooth result. 時間領域では、図3(b)に示す移動平均フィルタが適用され、よりスムーズな結果が得られる。 0.73
(a) The distribution of the scaled camera heights. (a)スケールしたカメラの高さの分布。 0.88
(b) The estimated camera height on sequence-02 and -05. b) シーケンス02および-05のカメラ高さの推定値。 0.83
Fig. 3. Demonstration of the filter-based scale recovery. フィギュア。 3. フィルタによるスケールリカバリの実証 0.63
The green points are the scaled camera heights. 緑の点はスケールしたカメラの高さです。 0.69
The red curve is the smoothed one. 赤い曲線は滑らかな曲線である。 0.74
IV. EXPERIMENTS We conduct experiments to evaluate the performance of our proposed method. IV。 実験 提案手法の性能を評価する実験を行う。 0.64
The MVO system used in the experiments is implemented based on ORB-SLAM2, and the proposed scale recovery method is integrated as an independent thread. 実験で使用するMVOシステムはORB-SLAM2に基づいて実装され,提案手法は独立スレッドとして統合される。 0.79
The system architecture is demonstrated in Fig 1. システムアーキテクチャは図1で示されています。 0.74
The KITTI dataset [20] is adopted as the benchmark dataset, in which sequence-01 is not used since it fails most featurebased VO systems. KITTIデータセット[20]は、ほとんどの機能ベースのVOシステムにフェールするため、シーケンス-01を使用しないベンチマークデータセットとして採用されている。 0.64
All the experiments are conducted using a laptop with Intel(R) Core(TM) i5-6300HQ CPU @ 2.30GHz. 全ての実験はIntel(R) Core(TM) i5-6300HQ CPU @ 2.30GHz のラップトップを用いて行われる。 0.78
A. Qualitative Evaluation The qualitative evaluation results of the proposed method are visualized in Fig 4. A.質的評価 提案手法の定性評価結果を図4に示す。 0.73
The trajectories outputted by the system are recovered using the proposed method, which means similarity transformation is not necessary when compared with ground-truth trajectories [21]. 提案手法により, システムから出力される軌道を復元し, 接地軌道と比較した場合の類似性変換は不要であることを示す [21]。 0.79
The baseline trajectories, indicated by green color in Fig 4, are generated by ORBSLAM2 with loop closure detection closed, denoted by ORB-SLAM2-noLC. 図4で緑で示される基線軌跡は、ORB-SLAM2-noLCで示されるループ閉鎖検出を閉じたORBSLAM2により生成される。 0.76
We can see that our re-scaled trajectories can eliminate scale drift and form correct loops, which demonstrates the effectiveness of the proposed method. 再スケールした軌道は、スケールドリフトを排除し、正しいループを形成することができ、提案手法の有効性を示すことができる。
訳抜け防止モード: 我々のre-scaled trajectoriesはスケールドリフトを排除し、正しいループを形成することができる。 提案手法の有効性を示す。
0.78
The comparison of trajectory length between the ground in truth and the proposed method is shown in Table I, which the Relative Length Error (RLE) is computed by e = |lgt − lours|/|lgt|, where l is the length of a trajectory. 実地と提案手法の軌跡長の比較は表Iで示され、相対長誤差(RLE)は e = |lgt − lours|/|lgt| で計算される。
訳抜け防止モード: 実地と提案手法の軌跡長の比較を表Iに示す。 相対長誤差(RLE)は e = |lgt − lours|/|lgt| で計算される。 lは軌道の長さです
0.69
For sequence-02, -04, -06, -07, and -10, the RLE is less than 1%. シーケンス02、-04、-06、-07、-10では、RLEは1%未満である。 0.65
The high performance is due to the fact that most roads ハイパフォーマンスは、ほとんどの道路が、 0.57
COMPARISON OF RE-SCALED TRAJECTORY 再スケール軌道の比較 0.39
TABLE I LENGTH WITH GROUND TRUTH テーブルI 地面トラス付き長さ 0.46
Seq 00 02 03 04 05 06 07 08 09 10 Seq 00 02 03 04 05 06 07 08 09 10 0.85
GT (m) 3645.213 5071.151 547.774 391.861 2175.159 1235.982 709.065 3137.398 1738.601 911.399 GT (m) 3645.213 5071.151 547.774 391.861 2175.159 1235.982 709.065 3137.398 1738.601 911.399 0.50
Ours (m) 3724.419 5067.233 560.888 393.645 2205.576 1232.876 694.697 3222.795 1705.051 919.518 Ours (m) 3724.419 5067.233 560.888 393.645 2205.576 1232.876 694.697 3222.795 1705.051 919.518 0.50
RLE (%) 2.173 0.757 0.558 0.455 1.398 0.251 0.767 2.722 1.929 0.890 RLE (%) 2.173 0.757 0.558 0.455 1.398 0.251 0.767 2.722 1.929 0.890 0.50
in these sequences are straight lines and contain rich features. これらの配列は直線で 豊富な特徴を含んでいます 0.71
Sequence-00 and -08 are more complicated cases, in which the scenario is composed of a lot of curves and turns. sequence-00と-08はより複雑なケースであり、シナリオは多くの曲線とターンで構成されている。 0.78
The path lengths are relatively longer than other sequences. 経路長は他の配列よりも比較的長い。 0.81
The RLE is thus slightly higher, 2.17% and 2.72%, respectively. RLEは、それぞれ2.17%と2.72%である。 0.62
Nevertheless, the results show that the proposed system can estimate an accurate scale of the entire trajectory. その結果,提案手法は軌道全体の正確なスケールを推定できることがわかった。
訳抜け防止モード: それにもかかわらず、結果は、 提案したシステムは 軌道全体の正確なスケールを推定できる
0.84
B. Quantitative Evaluation The quantitative comparison between our method and the baseline methods, including [1], [10], [11], [16], [17], [22], is presented in Table II. B.定量評価 本手法と, [1], [10], [11], [16], [17], [22]を含むベースライン法との定量的比較を表IIに示す。 0.73
The average translation error and rotation error are adopted as evaluation metrics. 平均翻訳誤差と回転誤差は評価指標として採用される。 0.82
We can see that ORB-SLAM2-noLC and VISO2-M have the worst performance due to the lack of loop closure detection. ORB-SLAM2-noLCとVISO2-Mはループ閉鎖検出の欠如により最悪の性能を示した。 0.68
The scale drift of the two methods induces a large translation error, 18.17% and 14.39% respectively, while the VO systems with scale recovery all maintain a low translation error, < 4%. 2つの方法のスケールドリフトは、それぞれ18.17%と14.39%の大きな翻訳誤差を誘導し、スケールリカバリを持つVOシステムはいずれも低い翻訳誤差を4%以下に維持する。 0.79
It can also be seen that a MVO system with scale recovery [1], [11], [16], [17] can exhibit competitive performance with a stereo VO system like VISO2-M [22], which significantly demonstrates the importance of scale recovery for MVO. また, スケールリカバリ[1], [11], [16], [17] の MVO システムは, VISO2-M[22] のようなステレオVO システムと競合する性能を示し, MVO のスケールリカバリの重要性が顕著に示されている。 0.72
In terms of monocular systems, we can see our proposed method achieves the minimum translation error while maintaining a competitive performance on rotation error. 単分子系では,提案手法は回転誤差の競合性能を維持しつつ,最小翻訳誤差を達成することができる。 0.78
The methods proposed by Song et al [1] and Zhou et al [11] can not work with sequence-07, because they both rely on a fixed region to extract ground points, whereas occlusions by moving vehicles occur frequently in this sequence. song et al [1] と zhou et al [11] によって提案された手法は、いずれも接地点を抽出するために一定の領域に依存しているため、sequence-07では機能しない。
訳抜け防止モード: Song et al [ 1 ] と Zhou et al [ 11 ] が提案した手法は,Sequence-07 では動作しない。 どちらも一定の地域に依存しています グラウンドポイントを抽出し 移動車両による閉塞はこのシーケンスで頻繁に起こる。
0.75
In contrast with [1], [11], the proposed method works well with sequence-07 with a translation error of 1.77%, benefiting from the GPA algorithm. [1], [11] とは対照的に,提案手法はシーケンス07と1.77%の翻訳誤差でうまく動作し, GPAアルゴリズムの利点がある。 0.86
In [16], a deep neural network, named DNet, is proposed for monocular depth prediction and scale recovery. 16]では,単眼深度予測とスケールリカバリのために,dnetと呼ばれる深層ニューラルネットワークが提案されている。 0.77
Compared with this method, our method shows a better accuracy in all the sequences. 本手法と比較すると,提案手法は全シーケンスにおいて精度がよい。 0.79
In [17], a real-time MVO system is implemented based on self-supervised learning techniques. 17]では,自己指導型学習技術に基づくリアルタイムMVOシステムを実装した。 0.84
This method can slightly outperform our proposed method in sequence-05 and -09, but has a much lower accuracy in sequence-00, -08, and -10. 本手法は, 提案手法をシーケンス05, シーケンス09で若干上回るが, シーケンス00, -08, -10では精度がはるかに低い。 0.81
A similar phenomenon can be observed when comparing with [1]. [1] と比較すると同様の現象が観察できる。 0.79
This indicate a llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll 1234567891011120.070 .080.09CameraHeightF rameFramelllllllllll l123456789101112 これは a を示す llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll llllllllllllllllllll 1234567891011120.070 .080.09CameraHeightF rameFramelllllllllll l123456789101112 0.33
英語(論文から抽出)日本語訳スコア
Fig. 4. The re-scaled trajectories on KITTI dataset. フィギュア。 4. KITTIデータセット上の再スケールトラジェクトリ。 0.67
The blue and green trajectories are generated by our system and ORB-SLAM2-noLC, respectively. 青と緑の軌道は, この系とORB-SLAM2-NOLCでそれぞれ生成する。 0.66
TABLE II COMPARISON OF AVERAGE TRANSLATION ERRORS AND ROTATION ERRORS WITH THE LATEST VISUAL ODOMETRY METHODS ON KITTI DATASET テーブルII kittiデータセットにおける平均翻訳誤差と回転誤差と最新の視覚オドメトリ法の比較 0.58
ORB-SLAM2-noLC [10] ORB-SLAM2-NOLC[10] 0.54
VISO2-M [22] VISO2-M[22] 0.73
VISO2-Stereo [22] VISO2-Stereo [22] 0.74
Song et.al [1] Song et.al [1] 0.88
Zhou et.al [11] Zhou et.al [11] 0.88
Brandon et.al [17] Brandon (複数形 Brandons) 0.68
DNet [16] Ours DNet [16] 我々の 0.72
Seq 00 01 02 03 04 05 06 07 08 09 10 世q 00 01 02 03 04 05 06 07 08 09 10 0.69
Avg Trans (%) Avg Trans (%) 0.85
20.8 − 9.52 − − 18.63 18.98 13.82 22.06 12.74 4.86 20.8 − 9.52 − − 18.63 18.98 13.82 22.06 12.74 4.86 0.50
18.17 Rot (deg/m) 18.17 腐る (deg/m) 0.58
− − − − − − − − − − − − − − − − − − − − − − − − 0.85
Trans (%) 11.91 − 3.33 10.66 7.40 12.67 4.74 − 13.94 4.04 25.20 Trans (%) 11.91 − 3.33 10.66 7.40 12.67 4.74 − 13.94 4.04 25.20 0.66
14.39 Rot (deg/m) 14.39 腐る (deg/m) 0.58
Trans (%) Rot Trans (%) 腐る 0.61
(deg/m) Trans (%) (deg/m) Trans (%) 0.82
Rot (deg/m) 腐る (deg/m) 0.58
Trans (%) 0.0209 Trans (%) 0.0209 0.72
− 0.0114 0.0197 0.0093 0.0328 0.0157 − 0.0114 0.0197 0.0093 0.0328 0.0157 0.65
− 0.0203 0.0143 0.0388 − 0.0203 0.0143 0.0388 0.66
0.0245 2.32 − 2.01 2.32 0.99 1.78 1.17 − 2.35 2.36 1.37 0.0245 2.32 − 2.01 2.32 0.99 1.78 1.17 − 2.35 2.36 1.37 0.53
2.32 0.0109 2.32 0.0109 0.59
− 0.0074 0.0107 0.0081 0.0098 0.0072 − 0.0074 0.0107 0.0081 0.0098 0.0072 0.65
− 0.0104 0.0094 0.0086 − 0.0104 0.0094 0.0086 0.66
0.0095 2.04 − 1.50 3.37 2.19 1.43 2.09 − 2.37 1.76 2.12 0.0095 2.04 − 1.50 3.37 2.19 1.43 2.09 − 2.37 1.76 2.12 0.53
2.03 0.0048 2.03 0.0048 0.59
− 0.0035 0.0021 0.0028 0.0038 0.0081 − 0.0035 0.0021 0.0028 0.0038 0.0081 0.65
− 0.0044 0.0047 0.0085 − 0.0044 0.0047 0.0085 0.66
0.0045 2.17 − − 2.70 − − − − − − 2.09 0.0045 2.17 − − 2.70 − − − − − − 2.09 0.69
2.32 Rot (deg/m) 2.32 腐る (deg/m) 0.58
0.0039 − − 0.0039 − − 0.72
0.0044 − − − − − − 0.0044 − − − − − − 0.72
0.0054 0.045 0.0054 0.045 0.59
Trans (%) Rot Trans (%) 腐る 0.61
(deg/m) Trans (%) (deg/m) Trans (%) 0.82
Rot (deg/m) 腐る (deg/m) 0.58
Trans (%) Rot Trans (%) 腐る 0.61
(deg/m) 1.86 − 2.27 − − 1.50 2.05 1.78 2.05 1.50 3.70 (deg/m) 1.86 − 2.27 − − 1.50 2.05 1.78 2.05 1.50 3.70 0.64
2.03 − − − − − − − − − 2.03 − − − − − − − − − 0.72
− 1.94 − 3.07 − − 3.32 2.74 2.74 2.72 3.70 5.09 − 1.94 − 3.07 − − 3.32 2.74 2.74 2.72 3.70 5.09 0.68
3.17 − − − − − − − − − − 3.17 − − − − − − − − − − 0.72
− 1.41 − 2.18 1.79 1.91 1.61 2.03 1.77 1.51 1.77 1.25 − 1.41 − 2.18 1.79 1.91 1.61 2.03 1.77 1.51 1.77 1.25 0.65
1.72 0.0054 1.72 0.0054 0.59
− 0.0046 0.0041 0.0021 0.0064 0.0044 0.0230 0.0076 0.0118 0.0031 − 0.0046 0.0041 0.0021 0.0064 0.0044 0.0230 0.0076 0.0118 0.0031 0.64
0.0068 significant variance on the performance of [17]. 0.0068 17]のパフォーマンスに大きなばらつきがあります。 0.60
Actually, this is the limitation of most deep learning based methods, which has been discussed in detail by [18]. 実際、これは[18]で詳細に議論されている、ディープラーニングベースのほとんどの方法の制限である。 0.68
The comparative experiments in Table II significantly verify the effectiveness of our method and demonstrates the advantages over the latest methods in the literature. 表IIにおける比較実験は,本手法の有効性を著しく検証し,文献における最新の手法に対する利点を示す。 0.84
C. Efficiency Evaluation Another significant advantage of our method lies in its high efficiency. C. 効率評価 この手法のもう1つの大きな利点は、高効率である。 0.74
We evaluate the run-time of our system on all the KITTI sequences mentioned above, and the experiment repeats five times. 上記のすべてのKITTIシーケンスに対して,本システムの実行時間を評価し,実験を5回繰り返した。 0.86
The median run-time is reported in Fig 5. 中央値のランタイムはfig 5で報告される。 0.55
In all the experiments, the MVO thread requires 50-55ms, while the GPE and GPA requires less than 10ms, which makes the system suitable for real-time applications. すべての実験において、mvoスレッドは50-55ms、gpeとgpaは10ms未満でリアルタイムアプリケーションに適している。 0.65
V. CONCLUSIONS V.コンキュレーション 0.76
In this work, we present a light-weight MVO system with accurate and robust scale recovery, aiming to reduce 本研究では,高精度でロバストなスケール回復を実現する軽量MVOシステムを提案する。 0.71
scale drift and provide accurate odometry in long-distance navigations without loop closure. ループ閉鎖を伴わない長距離航法におけるスケールドリフトと正確なオドメトリー 0.72
We solve the scale ambiguity for MVO by implementing our GPE-GPA algorithm for selecting high-quality points and optimizing them in a local sliding window. 我々は,高品質な点を選択し,局所的なスライディングウィンドウで最適化するGPE-GPAアルゴリズムを実装することで,MVOのスケールのあいまいさを解消する。 0.67
Sufficient data and robust optimizer provide accurate metric trajectory leveraging the ratio of the estimated camera height and the real one. 十分なデータとロバストなオプティマイザは、推定カメラ高さと実物との比率を利用した正確な計量軌道を提供する。 0.63
Extensive experiments show that our proposed framework can achieve stateof-the-art accuracy and recover a metric trajectory without additional sensors. 広範な実験により,提案手法は最先端の精度を実現し,センサを付加することなく計測軌跡を復元できることを示した。 0.58
The system is designed to be a lightweight framework, which can achieve real-time performance with 20Hz running frequency. このシステムは、20Hzの動作周波数でリアルタイムのパフォーマンスを実現する軽量なフレームワークとして設計されている。 0.66
Our proposed light-weight MVO system facilitates the localization and navigation of low-cost autonomous vehicles in long-distance scenarios. 提案する軽量MVOシステムは、長距離シナリオにおける低コストの自動運転車のローカライズとナビゲーションを容易にする。 0.53
Further study into integrating the uncertainty of plane estimation will be considered, which will further improve the accuracy of scale recovery. 平面推定の不確実性の統合に関するさらなる研究が検討され、スケールリカバリの精度がさらに向上する。 0.80
The light-weight neural network for ground segmentation will also be considered to help グラウンドセグメンテーションのための軽量ニューラルネットワークも役に立つと考えられる 0.74
(a) KITTI 00(b) KITTI 02(c) KITTI 03(d) KITTI 05(e) KITTI 06(f) KITTI 07(g) KITTI 08(h) KITTI 09 (a)KITTI00(b)KITTI02 (c)KITTI03(d)KITTI05 (e)KITTI06(f)KITTI07 (g)KITTI08(h)KITTI09 0.70
英語(論文から抽出)日本語訳スコア
constrain the extraction of high-quality ground points. 高品質な接地点の抽出を制約する。 0.56
Fig. 5. Run-time of our MVO system on KITTI dataset. フィギュア。 5. KITTIデータセット上でのMVOシステムの実行時間 0.69
The time costs of MVO thread, the GPE algorithm, and the GPA algorithm are reported. mvoスレッド、gpeアルゴリズム、gpaアルゴリズムの時間コストが報告されている。
訳抜け防止モード: mvoスレッドの時間コスト、gpeアルゴリズム、 そして、gpaアルゴリズムが報告されている。
0.62
REFERENCES [1] S. Song, M. Chandraker, and C. C. Guest, “High accuracy monocular sfm and scale correction for autonomous driving,” IEEE transactions on pattern analysis and machine intelligence, vol. 参考 ieee transactions on pattern analysis and machine intelligence, vol. [1] s. song, m. chandraker, and c. c. guest, “high accuracy monocular sfm and scale correction for autonomous driving” (英語) 0.67
38, no. 4, pp. 38だ 4, pp。 0.60
730– 743, 2015. 730– 743, 2015. 0.99
[2] D. Zhou, Y. Dai, and H. Li, “Reliable scale estimation and correction for monocular visual odometry,” in 2016 IEEE Intelligent Vehicles Symposium (IV). 2016 IEEE Intelligent Vehicles Symposium (IV) において, [2] D. Zhou, Y. Dai, H. Li, “Reliable Scale Estimation and correct for monocular visual odometry” を報告した。 0.86
IEEE, 2016, pp. IEEE、2016年。 0.59
490–495. [3] Y. Wu, Y. Zhang, D. Zhu, Y. Feng, S. Coleman, and D. Kerr, “Eaoslam: Monocular semi-dense object slam based on ensemble data association,” arXiv preprint arXiv:2004.12730, 2020. 490–495. Y.Wu, Y. Zhang, D. Zhu, Y. Feng, S. Coleman, D. Kerr, “Eaoslam: Monocular semi-dense object slam based on ensemble data association, arXiv preprint arXiv:2004.12730, 2020”。 0.82
[4] D. Scaramuzza, F. Fraundorfer, M. Pollefeys, and R. Siegwart, “Absolute scale in structure from motion from a single vehicle mounted camera by exploiting nonholonomic constraints,” in IEEE International Conference on Computer Vision, 2009. 4] d. scaramuzza, f. fraundorfer, m. pollefeys, r. siegwart, “absolute scale in structure from a single vehicle mounted camera by exploiting nonholonomic constraints”. ieee international conference on computer vision, 2009 (英語) 0.70
[5] H. Strasdat, J. M. M. Montiel, and A. J. Davison, “Scale drift-aware large scale monocular slam,” in Robotics: Science and Systems VI, Universidad de Zaragoza, Zaragoza, Spain, June 27-30, 2010, 2010. 5] H. Strasdat, J. M. Montiel, A. J. Davison, “Scale drift-aware large scale monocular slam” in Robotics: Science and Systems VI, Universidad de Zaragoza, Zaragoza, Spain, June 27-30, 2010 0.86
[6] D. Zhu, Y. [6]D. Zhu, Y。 0.84
Du, Y. Lin, H. Li, C. Wang, X. Xu, and M. Q.-H. Meng, “Hawkeye: Open source framework for field surveillance,” in 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). du, y. lin, h. li, c. wang, x. xu, m. q.-h. meng, “hawkeye: open source framework for field surveillance” in 2017 ieee/rsj international conference on intelligent robots and systems (iros) 0.83
IEEE, 2017, pp. IEEE、2017年。 0.63
6083–6090. 6083–6090. 0.71
[7] T. Qin, P. Li, and S. Shen, “Vins-mono: A robust and versatile monocular visual-inertial state estimator,” IEEE Transactions on Robotics, vol. T.Qin, P. Li, S. Shen, “Vins-mono: a robust and versatile monocular visual-inertial state estimator”, IEEE Transactions on Robotics, vol. 0.86
34, no. 4, pp. 34 だめだ 4, pp。 0.66
1004–1020, 2018. 1004–1020, 2018. 0.84
[8] J. Zhang, M. Kaess, and S. Singh, “Real-time depth enhanced monocular odometry,” in 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems. 8] j. zhang, m. kaess, s. singh, “real-time depth enhanced monocular odometry” 2014 ieee/rsj international conference on intelligent robots and systems(英語) 0.81
IEEE, 2014, pp. IEEE、2014年。 0.52
4973–4980. 4973–4980. 0.71
[9] T. Li, D. Zhu, and M. Q.-H. Meng, “A hybrid 3dof pose estimation method based on camera and lidar data,” in 2017 IEEE International Conference on Robotics and Biomimetics (ROBIO). T. Li, D. Zhu, and M. Q.-H. Meng, “A hybrid 3dof pose Estimation method based on camera and lidar data” in 2017 IEEE International Conference on Robotics and Biomimetics (ROBIO)。 0.83
IEEE, 2017, pp. IEEE、2017年。 0.63
361–366. [10] R. Mur-Artal and J. D. Tard´os, “Orb-slam2: An open-source slam system for monocular, stereo, and rgb-d cameras,” IEEE Transactions on Robotics, vol. 361–366. IEEE Transactions on Robotics, vol.[10] R. Mur-Artal and J. D. Tard ́os, “Orb-slam2: an open-source slam system for monocular, stereo, and rgb-d camera”。 0.76
33, no. 5, pp. 33、ノー。 5, pp。 0.77
1255–1262, 2017. 1255–1262, 2017. 0.84
[11] D. Zhou, Y. Dai, and H. Li, “Ground-plane-based absolute scale estimation for monocular visual odometry,” IEEE Transactions on Intelligent Transportation Systems, vol. IEEE Transactions on Intelligent Transportation Systems, Vol.D. Zhou, Y. Dai, and H. Li, “Ground-plane-based absolute scale estimation for monocular visual odometry”. IEEE Transactions on Intelligent Transportation Systems. 0.77
21, no. 2, pp. 791–802, 2019. 21だ 2、p。 791–802, 2019. 0.62
[12] Qifa Ke and T. Kanade, “Transforming camera geometry to a virtual downward-looking camera: robust ego-motion estimation and groundlayer detection,” in 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2003. 2003年IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2003 において, Qifa Ke, T. Kanade, “Transforming camera geometry to a virtual downward-looking camera: robust ego-motion Estimation and groundlayer detection” と題して発表した。 0.87
Proceedings., vol. Proceedings, vol。 0.78
1, 2003, pp. 2003年1月1日、p。 0.58
I–I. [13] J. Gr¨ater, T. Schwarze, and M. Lauer, “Robust scale estimation for monocular visual odometry using structure from motion and vanishing points,” in 2015 IEEE Intelligent Vehicles Symposium (IV). I-I。 2015 IEEE Intelligent Vehicles Symposium (IV) において,[13] J. Gr 'ater, T. Schwarze, M. Lauer, “運動と消滅点の構造を用いた単眼視覚計測のロバストスケール推定(Robust scale Estimation for monocular visual odometry)” を行った。 0.63
IEEE, 2015, pp. IEEE、2015年。 0.52
475–480. [14] X. Yin, X. Wang, X. 475–480. [14] X. Yin, X. Wang, X 0.80
Du, and Q. Chen, “Scale recovery for monocular visual odometry using depth estimated with deep convolutional neural fields,” in Proceedings of the IEEE International Conference on Computer Vision, 2017, pp. Du, and Q. Chen, “Scale recovery for monocular visual odometry using depth estimated with deep convolutional neural field” in Proceedings of the IEEE International Conference on Computer Vision, 2017 pp。 0.79
5870–5878. 5870–5878. 0.71
[15] L. Andraghetti, P. Myriokefalitakis, P. L. Dovesi, B. Luque, M. Poggi, A. Pieropan, and S. Mattoccia, “Enhancing self-supervised monocular depth estimation with traditional visual odometry,” in 2019 International Conference on 3D Vision (3DV). 15] l. andraghetti, p. myriokefalitakis, p. l. dovesi, b. luque, m. poggi, a. pieropan, s. mattoccia, “enhancing self-supervised monocular depth estimation with traditional visual odometry” in 2019 international conference on 3d vision (3dv) 0.82
IEEE, 2019, pp. IEEE, 2019, pp。 0.83
424–433. [16] F. Xue, G. Zhuo, Z. Huang, W. Fu, Z. Wu, and M. H. Ang Jr, “Toward hierarchical self-supervised monocular absolute depth estimation for autonomous driving applications,” arXiv preprint arXiv:2004.05560, 2020. 424–433. [16] f. xue, g. zhuo, z. huang, w. fu, z. wu, m. h. ang jr, “自動運転アプリケーションのための階層的自己教師付き絶対深度推定” arxiv preprint arxiv:2004.05560, 2020。
訳抜け防止モード: 424–433. [16 ]F.Xue, G. Zhuo, Z. Huang, W. Fu, Z. Wu, M. H. Ang Jr. 「階層的自己制御による自律運転用単分子絶対深度推定」 arXiv preprint arXiv:2004.05560 , 2020
0.76
[17] B. Wagstaff and J. Kelly, “Self-supervised scale recovery for monocular depth and egomotion estimation,” arXiv preprint arXiv:2009.03787, 2020. arXiv preprint arXiv:2009.03787, 2020。
訳抜け防止モード: [17 ]B. Wagstaff と J. Kelly は,「単眼深度と自我推定のための自己監督型スケールリカバリ」と述べた。 arXiv preprint arXiv:2009.03787 , 2020
0.70
[18] W. Wang, D. Zhu, X. Wang, Y. Hu, Y. Qiu, C. Wang, Y. Hu, A. Kapoor, and S. Scherer, “Tartanair: A dataset to push the limits of visual slam,” arXiv preprint arXiv:2003.14338, 2020. 18] w. wang, d. zhu, x. wang, y. hu, y. qiu, c. wang, y. hu, a. kapoor, s. scherer, “tartanair: a dataset to push the limit of visual slam” arxiv preprint arxiv:2003.14338, 2020
訳抜け防止モード: [18]W.Wang,D.Zhu,X.Wang, Y. Hu, Y. Qiu, C. Wang, Y. Hu A. Kapoor, and S. Scherer, “tartanair : A dataset to push the limit of visual slam” arXiv preprint arXiv:2003.14338 , 2020
0.93
[19] J. R. Shewchuk, “Triangle: Engineering a 2d quality mesh generator and delaunay triangulator,” in Workshop on Applied Computational Geometry. 19] j. r. shewchuk, “triangle: engineering a 2d quality mesh generator and delaunay triangulator” in workshop on applied computational geometry” (英語) 0.87
Springer, 1996, pp. スプリンガー、1996年、p。 0.59
203–222. [20] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving? 203–222. A. Geiger, P. Lenz, R. Urtasun, “自動運転の準備は整っているか? 0.74
the kitti vision benchmark suite,” in 2012 IEEE Conference on Computer Vision and Pattern Recognition. the kitti vision benchmark suite”は2012年のieee conference on computer vision and pattern recognitionで発表された。 0.72
IEEE, 2012, pp. IEEE、2012年。 0.57
3354– 3361. 3354– 3361. 0.94
[21] M. Grupp, “evo: Python package for the evaluation of odometry and 21] m. grupp, “evo: python package for the evaluation of odometry and” (英語) 0.86
slam.” https://github.com/M ichaelGrupp/evo, 2017. https://github.com/M ichaelGrupp/evo, 2017 0.61
[22] A. Geiger, J. Ziegler, and C. Stiller, “Stereoscan: Dense 3d reconstruction in real-time,” in Intelligent Vehicles Symposium (IV), 2011 IEEE, 2011. A. Geiger, J. Ziegler, C. Stiller, “Stereoscan: Dense 3d reconstruction in real-time” in Intelligent Vehicles Symposium (IV), 2011 IEEE, 2011 0.76
00020304050607080910 01020304050607080msT rackGround Points ExtractionLocal Points Aggregation 00020404060608091001 040406080msTrackGrou nd Points extractLocal Points Aggregation 0.60
               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。