論文の概要: Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry
- arxiv url: http://arxiv.org/abs/2103.11204v1
- Date: Sat, 20 Mar 2021 16:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:34:26.958234
- Title: Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry
- Title(参考訳): ビジュアルオドメトリーを用いた車両制御のための自励式ステアリング角予測
- Authors: Qadeer Khan, Patrick Wenzel, Daniel Cremers
- Abstract要約: 視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
- 参考スコア(独自算出の注目度): 55.11913183006984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based learning methods for self-driving cars have primarily used
supervised approaches that require a large number of labels for training.
However, those labels are usually difficult and expensive to obtain. In this
paper, we demonstrate how a model can be trained to control a vehicle's
trajectory using camera poses estimated through visual odometry methods in an
entirely self-supervised fashion. We propose a scalable framework that
leverages trajectory information from several different runs using a camera
setup placed at the front of a car. Experimental results on the CARLA simulator
demonstrate that our proposed approach performs at par with the model trained
with supervision.
- Abstract(参考訳): 自動運転車の視覚に基づく学習方法は、主に多数のラベルを必要とする教師付きアプローチを用いて訓練を行っている。
しかし、これらのラベルは通常入手が困難で高価である。
本稿では,視覚オドメトリー法を用いて推定したカメラポーズを用いて車両の軌道制御を,完全に自己教師あり方式で訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
CARLAシミュレータによる実験結果から,提案手法が指導訓練モデルと同等に動作することを示した。
関連論文リスト
- Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Safe Navigation: Training Autonomous Vehicles using Deep Reinforcement
Learning in CARLA [0.0]
このプロジェクトの目的は、深層強化学習技術を用いて、不確実な環境での走行を判断できるように自動運転車を訓練することである。
シミュレータは、自動運転モデルのトレーニングとテストのための現実的で都市環境を提供する。
論文 参考訳(メタデータ) (2023-10-23T04:23:07Z) - Robust Autonomous Vehicle Pursuit without Expert Steering Labels [41.168074206046164]
車両追尾用エゴ車両の左右方向と縦方向の動作制御の学習法を提案する。
制御される車両は事前に定義された経路を持たず、安全距離を維持しながら目標車両を追尾するように反応的に適応する。
我々は、CARLAシミュレーターを用いて、幅広い地形における我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-08-16T14:09:39Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Masked Visual Pre-training for Motor Control [118.18189211080225]
実世界の画像からの自己教師付き視覚前訓練は、画素から運動制御タスクを学習するのに有効である。
私たちはビジュアルエンコーダを凍結し、強化学習でニューラルネットワークコントローラをトレーニングします。
これは、モーター制御のために現実の画像を大規模に活用した初めての自己教師型モデルである。
論文 参考訳(メタデータ) (2022-03-11T18:58:10Z) - Self-Supervised Moving Vehicle Detection from Audio-Visual Cues [29.06503735149157]
本稿では,映像中の移動車両の検出に音声視覚的手がかりを活用する自己教師型アプローチを提案する。
提案手法では,画像と記録音声の対から画像中の車両を位置決めするのに対して,コントラスト学習を用いる。
そこで本研究では,教師が音声のみの検出モデルを監督するために,本モデルを利用できることを示す。
論文 参考訳(メタデータ) (2022-01-30T09:52:14Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Vehicle trajectory prediction in top-view image sequences based on deep
learning method [1.181206257787103]
周囲の車両の動きを推定し予測することは、自動車両と高度な安全システムにとって不可欠である。
道路の空中画像から得られた画像から学習した計算複雑性の低いモデルを提案する。
提案モデルでは, 対象車両とその周辺車両の移動履歴に関する画像を見るだけで, 自動車の将来の進路を予測できる。
論文 参考訳(メタデータ) (2021-02-02T20:48:19Z) - What My Motion tells me about Your Pose: A Self-Supervised Monocular 3D
Vehicle Detector [41.12124329933595]
参照領域上で事前学習した方向推定モデルにおいて,単眼視計測を用いた自己教師型微調整を行った。
その後、自己監督車両配向推定器上に構築された最適化に基づく単分子式3次元境界箱検出器を実演した。
論文 参考訳(メタデータ) (2020-07-29T12:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。