論文の概要: Pseudo-LiDAR for Visual Odometry
- arxiv url: http://arxiv.org/abs/2209.01567v1
- Date: Sun, 4 Sep 2022 08:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:56:16.457227
- Title: Pseudo-LiDAR for Visual Odometry
- Title(参考訳): 視覚計測のための擬似LiDAR
- Authors: Huiying Deng, Guangming Wang, Zhiheng Feng, Chaokang Jiang, Xinrui Wu,
Yanzi Miao, and Hesheng Wang
- Abstract要約: この問題を解決するために擬似LiDARの概念がオドメトリーに導入された。
擬似LiDAR点雲は、画像によって生成された深度マップを3Dポイントクラウドにバックプロジェクションする。
2D-3Dの融合は、画像のみに基づくオドメトリーで達成される。
- 参考スコア(独自算出の注目度): 18.46518770333958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the existing methods, LiDAR odometry shows superior performance, but
visual odometry is still widely used for its price advantage. Conventionally,
the task of visual odometry mainly rely on the input of continuous images.
However, it is very complicated for the odometry network to learn the epipolar
geometry information provided by the images. In this paper, the concept of
pseudo-LiDAR is introduced into the odometry to solve this problem. The
pseudo-LiDAR point cloud back-projects the depth map generated by the image
into the 3D point cloud, which changes the way of image representation.
Compared with the stereo images, the pseudo-LiDAR point cloud generated by the
stereo matching network can get the explicit 3D coordinates. Since the 6
Degrees of Freedom (DoF) pose transformation occurs in 3D space, the 3D
structure information provided by the pseudo-LiDAR point cloud is more direct
than the image. Compared with sparse LiDAR, the pseudo-LiDAR has a denser point
cloud. In order to make full use of the rich point cloud information provided
by the pseudo-LiDAR, a projection-aware dense odometry pipeline is adopted.
Most previous LiDAR-based algorithms sampled 8192 points from the point cloud
as input to the odometry network. The projection-aware dense odometry pipeline
takes all the pseudo-LiDAR point clouds generated from the images except for
the error points as the input to the network. While making full use of the 3D
geometric information in the images, the semantic information in the images is
also used in the odometry task. The fusion of 2D-3D is achieved in an
image-only based odometry. Experiments on the KITTI dataset prove the
effectiveness of our method. To the best of our knowledge, this is the first
visual odometry method using pseudo-LiDAR.
- Abstract(参考訳): 既存の手法では、LiDARのオドメトリーは優れた性能を示すが、それでもその価格優位性のために視覚オドメトリーは広く使われている。
従来,視覚計測の課題は主に連続画像の入力に依存していた。
しかし、オドメトリネットワークが画像から提供されるエピポーラ幾何情報を学習することは非常に複雑である。
本稿では,この問題を解決するために,擬似LiDARの概念をオドメトリーに導入する。
擬似LiDARポイントクラウドは、画像によって生成された深度マップを3Dポイントクラウドにバックプロジェクションし、画像表現の仕方を変える。
ステレオ画像と比較して、ステレオマッチングネットワークによって生成された擬似LiDAR点雲は、明示的な3D座標を得ることができる。
6自由度(DoF)ポーズ変換は3次元空間で発生するため、擬似LiDAR点雲によって提供される3D構造情報は画像よりも直接的である。
スパースLiDARと比較すると、擬似LiDARはより密度の高い点雲を持つ。
擬似LiDARが提供するリッチポイントクラウド情報をフル活用するために、投射型高密度オドメトリーパイプラインを採用する。
以前のLiDARベースのアルゴリズムは、オドメトリーネットワークへの入力として、点雲から8192点をサンプリングした。
投影認識密度オドメトリパイプラインは、画像から生成された疑似ライダー点雲を、ネットワークへの入力としてエラー点を除いてすべて取り出す。
画像中の3次元幾何学情報をフル活用しながら、画像内の意味情報もオドメトリータスクで使用される。
2D-3Dの融合は、画像のみに基づくオドメトリーで達成される。
KITTIデータセットの実験により,本手法の有効性が証明された。
我々の知る限りでは、これは擬似LiDARを用いた初めての視覚計測法である。
関連論文リスト
- DVLO: Deep Visual-LiDAR Odometry with Local-to-Global Feature Fusion and Bi-Directional Structure Alignment [11.78419764795351]
画像のピクセルは規則的で密度が高いが、LiDARポイントは非順序であり、スパースである。
本稿では,双方向構造アライメントを有するDVLO(ローカル・グローバル・フュージョン・ネットワーク)を提案する。
本手法は,KITTI odometry と FlyingThings3D シーンフローデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-27T05:57:45Z) - Quadric Representations for LiDAR Odometry, Mapping and Localization [93.24140840537912]
現在のLiDARオードメトリ、マッピング、ローカライズ手法は、3Dシーンのポイントワイズ表現を利用する。
3次元オブジェクトのよりコンパクトな表現である2次元曲面を用いたシーン記述法を提案する。
提案手法は低レイテンシとメモリの有効性を維持しつつ、競争力があり、しかも精度も優れている。
論文 参考訳(メタデータ) (2023-04-27T13:52:01Z) - (LC)$^2$: LiDAR-Camera Loop Constraints For Cross-Modal Place
Recognition [0.9449650062296824]
本稿では,先行点クラウドマップを使わずにLiDARローカライゼーションを実現するために, (LC)$2$と呼ばれる新しいクロスマッチング手法を提案する。
ネットワークは、異なる画像とレンジ画像からローカライズ記述子を抽出するために訓練される。
我々は、LiDARベースのナビゲーションシステムが画像データベースから最適化され、その逆も可能であることを実証する。
論文 参考訳(メタデータ) (2023-04-17T23:20:16Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Learning to Drop Points for LiDAR Scan Synthesis [5.132259673802809]
3Dシーンのジェネラティブモデリングは、モバイルロボットが信頼できない観察を改善するための重要なトピックです。
点雲に関する既存の研究のほとんどは、小さく均一な密度のデータに焦点を当てている。
移動ロボットで広く使われている3次元LiDAR点雲は、多数の点と様々な密度のために扱いにくい。
本論文では,リアルなLiDARデータを改良した2次元表現として合成する,ジェネレーティブ・アドバーサリ・ネットワークに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-23T21:53:14Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - PWCLO-Net: Deep LiDAR Odometry in 3D Point Clouds Using Hierarchical
Embedding Mask Optimization [17.90299648470637]
本稿では,PWCLO-Netと呼ばれる深部LiDAR計測のための3Dポイントクラウド学習モデルを提案する。
このモデルでは,LiDARオドメトリータスクのためのピラミッド,ウォーピング,コストボリューム構造を構築し,粗大なアプローチで推定されたポーズを階層的に洗練する。
提案手法は,KITTI odometry データセットのほとんどのシーケンスにおいて,最近の学習手法より優れ,マッピング最適化による幾何学的アプローチ LOAM よりも優れている。
論文 参考訳(メタデータ) (2020-12-02T05:23:41Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - A Simple and Efficient Registration of 3D Point Cloud and Image Data for
Indoor Mobile Mapping System [18.644879251473647]
光画像による3次元LiDAR点雲の登録は、マルチソースデータの組み合わせにおいて重要である。
幾何学的ミスアライメントは元々、LiDAR点雲と光学画像の間のポーズデータに存在する。
我々は,初期ポーズの精度を向上させるため,シンプルだが効率的な登録方法を開発した。
論文 参考訳(メタデータ) (2020-10-27T13:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。