論文の概要: Lateral Ego-Vehicle Control without Supervision using Point Clouds
- arxiv url: http://arxiv.org/abs/2203.10662v1
- Date: Sun, 20 Mar 2022 21:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:44:59.499839
- Title: Lateral Ego-Vehicle Control without Supervision using Point Clouds
- Title(参考訳): 点雲を用いたスーパービジョンのない横方向Ego-Vehicle制御
- Authors: Florian M\"uller, Qadeer Khan, Daniel Cremers
- Abstract要約: 既存の視覚に基づく横方向の車両制御に対する教師付きアプローチは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
本稿では、横方向の車両制御のための、より堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
オンライン実験により,本手法の性能は教師付きモデルよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 50.40632021583213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing vision based supervised approaches to lateral vehicle control are
capable of directly mapping RGB images to the appropriate steering commands.
However, they are prone to suffering from inadequate robustness in real world
scenarios due to a lack of failure cases in the training data. In this paper, a
framework for training a more robust and scalable model for lateral vehicle
control is proposed. The framework only requires an unlabeled sequence of RGB
images. The trained model takes a point cloud as input and predicts the lateral
offset to a subsequent frame from which the steering angle is inferred. The
frame poses are in turn obtained from visual odometry. The point cloud is
conceived by projecting dense depth maps into 3D. An arbitrary number of
additional trajectories from this point cloud can be generated during training.
This is to increase the robustness of the model. Online experiments show that
the performance of our method is superior to that of the supervised model.
- Abstract(参考訳): 既存の視覚に基づく横方向車両制御アプローチでは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
しかしながら、トレーニングデータに障害事例がないため、現実のシナリオでは不十分な堅牢性に苦しむ傾向にあります。
本稿では、横方向車両制御のためのより堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
フレームワークはラベルなしのRGBイメージのみを必要とする。
トレーニングされたモデルは、点雲を入力として、ステアリング角が推測される後続のフレームに対する横オフセットを予測する。
フレームポーズは、視覚的オドメトリーから順番に得られる。
点雲は、密度の深い深度マップを3Dに投影することによって考え出される。
この点からの任意の数の追加軌道をトレーニング中に生成することができる。
これはモデルの堅牢性を高めるためです。
オンライン実験により,提案手法の性能は教師付きモデルよりも優れていることが示された。
関連論文リスト
- PRED: Pre-training via Semantic Rendering on LiDAR Point Clouds [18.840000859663153]
本稿では,屋外点雲のための画像支援事前学習フレームワークPreDを提案する。
我々のフレームワークの主な構成要素は、Birds-Eye-View (BEV) 機能マップ条件付きセマンティックレンダリングである。
我々は、高マスキング比のポイントワイドマスクを組み込むことにより、モデルの性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-11-08T07:26:09Z) - Take-A-Photo: 3D-to-2D Generative Pre-training of Point Cloud Models [97.58685709663287]
生成事前学習は、2次元視覚における基本モデルの性能を高めることができる。
3Dビジョンでは、トランスフォーマーベースのバックボーンの過度な信頼性と、点雲の秩序のない性質により、生成前のトレーニングのさらなる発展が制限されている。
本稿では,任意の点クラウドモデルに適用可能な3D-to-2D生成事前学習法を提案する。
論文 参考訳(メタデータ) (2023-07-27T16:07:03Z) - ViPFormer: Efficient Vision-and-Pointcloud Transformer for Unsupervised
Pointcloud Understanding [3.7966094046587786]
単一アーキテクチャで画像とポイントクラウド処理を統合する軽量なViPFormer(ViPFormer)を提案する。
ViPFormerは、モーダル内およびクロスモーダルのコントラスト目的を最適化することにより、教師なしの方法で学習する。
異なるデータセットの実験では、ViPFormerは、より精度が高く、モデルの複雑さが低く、実行レイテンシが低い、従来の最先端の教師なしメソッドを上回っている。
論文 参考訳(メタデータ) (2023-03-25T06:47:12Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - P2P: Tuning Pre-trained Image Models for Point Cloud Analysis with
Point-to-Pixel Prompting [94.11915008006483]
本稿では,ポイントクラウド解析のための新しいポイント・ツー・Pixelを提案する。
ScanObjectNNの最も難しい設定では,89.3%の精度が得られる。
また,本フレームワークは,ModelNet分類とShapeNet Part Codeで非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2022-08-04T17:59:03Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。