論文の概要: SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2010.09343v3
- Date: Wed, 9 Feb 2022 04:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:51:00.871198
- Title: SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks
- Title(参考訳): SelfVoxeLO:Voxel-based Deep Neural Networksを用いた自己教師型LiDARオドメトリー
- Authors: Yan Xu, Zhaoyang Huang, Kwan-Yee Lin, Xinge Zhu, Jianping Shi, Hujun
Bao, Guofeng Zhang, Hongsheng Li
- Abstract要約: 本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
- 参考スコア(独自算出の注目度): 81.64530401885476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent learning-based LiDAR odometry methods have demonstrated their
competitiveness. However, most methods still face two substantial challenges:
1) the 2D projection representation of LiDAR data cannot effectively encode 3D
structures from the point clouds; 2) the needs for a large amount of labeled
data for training limit the application scope of these methods. In this paper,
we propose a self-supervised LiDAR odometry method, dubbed SelfVoxeLO, to
tackle these two difficulties. Specifically, we propose a 3D convolution
network to process the raw LiDAR data directly, which extracts features that
better encode the 3D geometric patterns. To suit our network to self-supervised
learning, we design several novel loss functions that utilize the inherent
properties of LiDAR point clouds. Moreover, an uncertainty-aware mechanism is
incorporated in the loss functions to alleviate the interference of moving
objects/noises. We evaluate our method's performances on two large-scale
datasets, i.e., KITTI and Apollo-SouthBay. Our method outperforms
state-of-the-art unsupervised methods by 27%/32% in terms of
translational/rotational errors on the KITTI dataset and also performs well on
the Apollo-SouthBay dataset. By including more unlabelled training data, our
method can further improve performance comparable to the supervised methods.
- Abstract(参考訳): 近年の学習に基づくLiDARオドメトリー法は,その競争力を実証している。
しかし、ほとんどの方法はまだ2つの重大な課題に直面している。
1) LiDARデータの2次元投影表現は、点雲から3次元構造を効果的に符号化することはできない。
2) 大量のラベル付きデータのトレーニングの必要性は,これらの手法の適用範囲を制限する。
本稿では,この2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
ネットワークを自己教師型学習に適合させるため,LiDAR点雲の固有特性を利用する新たな損失関数を設計する。
また、損失関数に不確実性認識機構を組み込んで、移動物体/ノイズの干渉を緩和する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
提案手法は,KITTIデータセットの翻訳・回転誤差を27%/32%向上させ,Apollo-SouthBayデータセットでも良好に動作することを示す。
学習データを含むことにより,教師付き手法に匹敵する性能を向上させることができる。
関連論文リスト
- LiOn-XA: Unsupervised Domain Adaptation via LiDAR-Only Cross-Modal Adversarial Training [61.26381389532653]
LiOn-XAは、LiDAR-Only Cross-Modal (X)学習と3D LiDARポイントクラウドセマンティックセマンティックセグメンテーションのためのAdversarial Trainingを組み合わせた、教師なしドメイン適応(UDA)アプローチである。
3つの現実的適応シナリオに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-21T09:50:17Z) - Approaching Outside: Scaling Unsupervised 3D Object Detection from 2D Scene [22.297964850282177]
教師なし3次元検出のためのLiDAR-2D Self-paced Learning (LiSe)を提案する。
RGB画像は、正確な2Dローカライゼーションキューを提供するLiDARデータの貴重な補完となる。
本フレームワークでは,適応型サンプリングと弱いモデルアグリゲーション戦略を組み込んだ自己評価学習パイプラインを考案する。
論文 参考訳(メタデータ) (2024-07-11T14:58:49Z) - 4D Contrastive Superflows are Dense 3D Representation Learners [62.433137130087445]
我々は,LiDARとカメラのペアを連続的に利用して事前学習の目的を確立するための,新しいフレームワークであるSuperFlowを紹介する。
学習効率をさらに向上するため,カメラビューから抽出した知識の整合性を高めるプラグイン・アンド・プレイ・ビュー・一貫性モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-07-08T17:59:54Z) - FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with
Pre-trained Vision-Language Models [62.663113296987085]
クラス増分学習(class-incremental learning)は、モデルが限られたデータに基づいて漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
冗長特徴除去器(RFE)と空間ノイズ補償器(SNC)の2つの新しいコンポーネントを紹介する。
既存の3次元データセットの不均衡を考慮し、3次元FSCILモデルのより微妙な評価を提供する新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - Dense Voxel Fusion for 3D Object Detection [10.717415797194896]
ボクセル融合 (Voxel Fusion, DVF) は, 多スケール密度ボクセル特徴表現を生成する逐次融合法である。
地上の真理2Dバウンディングボックスラベルを直接トレーニングし、ノイズの多い検出器固有の2D予測を避けます。
提案したマルチモーダルトレーニング戦略は, 誤った2次元予測を用いたトレーニングに比べ, より一般化できることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:51:31Z) - Robust Self-Supervised LiDAR Odometry via Representative Structure
Discovery and 3D Inherent Error Modeling [67.75095378830694]
そこで我々は,2段階のオドメトリ推定ネットワークを構築し,一連の部分領域変換を推定してエゴモーメントを求める。
本稿では,トレーニング,推論,マッピングフェーズにおける信頼できない構造の影響を軽減することを目的とする。
我々の2フレームのオードメトリーは、翻訳/回転誤差の点で、過去の芸術の状態を16%/12%上回っている。
論文 参考訳(メタデータ) (2022-02-27T12:52:27Z) - Advancing Self-supervised Monocular Depth Learning with Sparse LiDAR [22.202192422883122]
本稿では,自己教師付き単分子深度学習を推進するための2段階ネットワークを提案する。
本モデルでは,単色画像特徴と疎LiDAR特徴を融合させて初期深度マップを推定する。
我々のモデルは、下流タスクのモノクロ3Dオブジェクト検出において、最先端のスパース-LiDAR法(Pseudo-LiDAR++)を68%以上向上させる。
論文 参考訳(メタデータ) (2021-09-20T15:28:36Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Scan-based Semantic Segmentation of LiDAR Point Clouds: An Experimental
Study [2.6205925938720833]
最先端の手法では、深いニューラルネットワークを使用して、LiDARスキャンの各点のセマンティッククラスを予測する。
LiDAR測定を処理するための強力で効率的な方法は、2次元の画像のような投影を使うことである。
メモリの制約だけでなく、パフォーマンスの向上やランタイムの改善など、さまざまなテクニックを実証する。
論文 参考訳(メタデータ) (2020-04-06T11:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。