論文の概要: Trajectory-based Road Autolabeling with Lidar-Camera Fusion in Winter Conditions
- arxiv url: http://arxiv.org/abs/2412.02370v1
- Date: Tue, 03 Dec 2024 10:54:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:24.102465
- Title: Trajectory-based Road Autolabeling with Lidar-Camera Fusion in Winter Conditions
- Title(参考訳): ライダー・カメラ・フュージョンを用いた冬期軌道追従型道路オートラベリング
- Authors: Eerik Alamikkotervo, Henrik Toikka, Kari Tammi, Risto Ojala,
- Abstract要約: トラジェクトリに基づく自己管理手法は,手動のラベルを使わずに,横断経路から学習することができる。
本手法は,冬期運転データセットの評価において,近年のスタンドアロンカメラおよびライダー方式よりも優れていた。
- 参考スコア(独自算出の注目度): 1.3724491757145387
- License:
- Abstract: Robust road segmentation in all road conditions is required for safe autonomous driving and advanced driver assistance systems. Supervised deep learning methods provide accurate road segmentation in the domain of their training data but cannot be trusted in out-of-distribution scenarios. Including the whole distribution in the trainset is challenging as each sample must be labeled by hand. Trajectory-based self-supervised methods offer a potential solution as they can learn from the traversed route without manual labels. However, existing trajectory-based methods use learning schemes that rely only on the camera or only on the lidar. In this paper, trajectory-based learning is implemented jointly with lidar and camera for increased performance. Our method outperforms recent standalone camera- and lidar-based methods when evaluated with a challenging winter driving dataset including countryside and suburb driving scenes. The source code is available at https://github.com/eerik98/lidar-camera-road-autolabeling.git
- Abstract(参考訳): 全ての道路条件におけるロバストな道路分割は、安全な自動運転と高度な運転支援システムに必要である。
改良されたディープラーニング手法は、トレーニングデータの領域内で正確な道路分割を提供するが、配布外シナリオでは信頼できない。
各サンプルを手動でラベル付けする必要があるため、トレインセット全体の分布を含めることは困難である。
トラジェクトリベースの自己教師型手法は、手動のラベルを使わずに、横断経路から学習できる潜在的な解決策を提供する。
しかし、既存の軌跡に基づく手法では、カメラにのみ依存する学習方式やライダーにのみ依存する学習方式を用いる。
本稿では,ライダーとカメラを併用して軌道学習を行い,性能向上を図る。
本手法は,田園部や郊外の運転シーンを含む冬季運転データセットを用いて,近年のスタンドアローンカメラ・ライダー方式よりも優れていた。
ソースコードはhttps://github.com/eerik98/lidar-camera-road-autolabeling.gitで公開されている。
関連論文リスト
- R2S100K: Road-Region Segmentation Dataset For Semi-Supervised Autonomous
Driving in the Wild [11.149480965148015]
ロードリージョンデータセット(ロードリージョンデータセット、R2S100K)は、道路セグメンテーションのトレーニングと評価のための大規模データセットおよびベンチマークである。
R2S100Kは、1000KM以上の道路を網羅する大規模で多様なビデオシーケンスから抽出された100K画像からなる。
ラベルのないデータを活用することで学習を改善するための,EDSに基づく効率的なデータサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-08-11T21:31:37Z) - Learning Off-Road Terrain Traversability with Self-Supervisions Only [2.4316550366482357]
オフロード環境における自律走行の様々な条件下で、地形の走行可能性の推定は信頼性と正確性を有するべきである。
本稿では,手動ラベルを使わずに自己スーパービジョンのみを利用する画像からトラバーサビリティを学習する手法を提案する。
論文 参考訳(メタデータ) (2023-05-30T09:51:27Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - Leveraging Road Area Semantic Segmentation with Auxiliary Steering Task [0.0]
ステアリングホイール角情報を利用して道路領域のセマンティックセグメンテーションを改善するCNNに基づく手法を提案する。
本稿では,自律運転のための2つの挑戦的データセットに対する提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-12-19T13:25:09Z) - NeurIPS 2022 Competition: Driving SMARTS [60.948652154552136]
ドライビングSMARTSは、動的相互作用コンテキストにおける分散シフトに起因する問題に対処するために設計された定期的な競争である。
提案するコンペティションは,強化学習(RL)やオフライン学習など,方法論的に多様なソリューションをサポートする。
論文 参考訳(メタデータ) (2022-11-14T17:10:53Z) - Safe Real-World Autonomous Driving by Learning to Predict and Plan with
a Mixture of Experts [3.2230833657560503]
我々は、自動運転車と他の道路エージェントの両方の将来の軌道にまたがる分布について提案する。
推論中は、安全性と予測確率を考慮したコストを最小限に抑える計画軌道を選択する。
都市部の公道上での自動運転車の展開に成功し、快適さを損なうことなく安全に運転できることを確認しました。
論文 参考訳(メタデータ) (2022-11-03T20:16:24Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Fusion of neural networks, for LIDAR-based evidential road mapping [3.065376455397363]
LIDARスキャンにおける道路検出に最適化された新しい畳み込みアーキテクチャであるRoadSegを紹介する。
RoadSegは、個々のLIDARポイントを道路に属するか、そうでないかを分類するために使用される。
そこで本研究では,連続した道路検出結果を融合する明らかな道路マッピングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-05T18:14:36Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。