論文の概要: Lateral Ego-Vehicle Control without Supervision using Point Clouds
- arxiv url: http://arxiv.org/abs/2203.10662v1
- Date: Sun, 20 Mar 2022 21:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:44:59.499839
- Title: Lateral Ego-Vehicle Control without Supervision using Point Clouds
- Title(参考訳): 点雲を用いたスーパービジョンのない横方向Ego-Vehicle制御
- Authors: Florian M\"uller, Qadeer Khan, Daniel Cremers
- Abstract要約: 既存の視覚に基づく横方向の車両制御に対する教師付きアプローチは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
本稿では、横方向の車両制御のための、より堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
オンライン実験により,本手法の性能は教師付きモデルよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 50.40632021583213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing vision based supervised approaches to lateral vehicle control are
capable of directly mapping RGB images to the appropriate steering commands.
However, they are prone to suffering from inadequate robustness in real world
scenarios due to a lack of failure cases in the training data. In this paper, a
framework for training a more robust and scalable model for lateral vehicle
control is proposed. The framework only requires an unlabeled sequence of RGB
images. The trained model takes a point cloud as input and predicts the lateral
offset to a subsequent frame from which the steering angle is inferred. The
frame poses are in turn obtained from visual odometry. The point cloud is
conceived by projecting dense depth maps into 3D. An arbitrary number of
additional trajectories from this point cloud can be generated during training.
This is to increase the robustness of the model. Online experiments show that
the performance of our method is superior to that of the supervised model.
- Abstract(参考訳): 既存の視覚に基づく横方向車両制御アプローチでは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
しかしながら、トレーニングデータに障害事例がないため、現実のシナリオでは不十分な堅牢性に苦しむ傾向にあります。
本稿では、横方向車両制御のためのより堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
フレームワークはラベルなしのRGBイメージのみを必要とする。
トレーニングされたモデルは、点雲を入力として、ステアリング角が推測される後続のフレームに対する横オフセットを予測する。
フレームポーズは、視覚的オドメトリーから順番に得られる。
点雲は、密度の深い深度マップを3Dに投影することによって考え出される。
この点からの任意の数の追加軌道をトレーニング中に生成することができる。
これはモデルの堅牢性を高めるためです。
オンライン実験により,提案手法の性能は教師付きモデルよりも優れていることが示された。
関連論文リスト
- Cross-Modal Self-Supervised Learning with Effective Contrastive Units for LiDAR Point Clouds [34.99995524090838]
LiDARポイントクラウドにおける3D知覚は、自動運転車が3D環境で適切に機能するためには不可欠である。
3次元知覚モデルの自己教師付き事前学習への関心が高まっている。
我々は、自動運転点雲に適したインスタンス認識および類似性バランスのコントラストユニットを提案する。
論文 参考訳(メタデータ) (2024-09-10T19:11:45Z) - Adapt PointFormer: 3D Point Cloud Analysis via Adapting 2D Visual Transformers [38.08724410736292]
本稿では,3次元ポイントクラウド解析の課題を達成するために,2次元事前知識を持つ事前学習モデルの活用を試みる。
本稿では,適応ポイントフォーマー (APF) を提案する。
論文 参考訳(メタデータ) (2024-07-18T06:32:45Z) - Point Cloud Models Improve Visual Robustness in Robotic Learners [18.23824531384375]
我々は、新しいポイントクラウドワールドモデル(PCWM)とポイントクラウドベースの制御ポリシーを導入する。
我々の実験によると、ポイントクラウドを明示的にエンコードするポリシーは、RGB-Dのポリシーよりもはるかに堅牢である。
これらの結果は、点雲を通して3Dシーンを推論することで、パフォーマンスを改善し、学習時間を短縮し、ロボット学習者の堅牢性を高めることを示唆している。
論文 参考訳(メタデータ) (2024-04-29T17:59:11Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - PRED: Pre-training via Semantic Rendering on LiDAR Point Clouds [18.840000859663153]
本稿では,屋外点雲のための画像支援事前学習フレームワークPreDを提案する。
我々のフレームワークの主な構成要素は、Birds-Eye-View (BEV) 機能マップ条件付きセマンティックレンダリングである。
我々は、高マスキング比のポイントワイドマスクを組み込むことにより、モデルの性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-11-08T07:26:09Z) - Take-A-Photo: 3D-to-2D Generative Pre-training of Point Cloud Models [97.58685709663287]
生成事前学習は、2次元視覚における基本モデルの性能を高めることができる。
3Dビジョンでは、トランスフォーマーベースのバックボーンの過度な信頼性と、点雲の秩序のない性質により、生成前のトレーニングのさらなる発展が制限されている。
本稿では,任意の点クラウドモデルに適用可能な3D-to-2D生成事前学習法を提案する。
論文 参考訳(メタデータ) (2023-07-27T16:07:03Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - P2P: Tuning Pre-trained Image Models for Point Cloud Analysis with
Point-to-Pixel Prompting [94.11915008006483]
本稿では,ポイントクラウド解析のための新しいポイント・ツー・Pixelを提案する。
ScanObjectNNの最も難しい設定では,89.3%の精度が得られる。
また,本フレームワークは,ModelNet分類とShapeNet Part Codeで非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2022-08-04T17:59:03Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。