論文の概要: Accurate, Low-Latency Visual Perception for Autonomous
Racing:Challenges, Mechanisms, and Practical Solutions
- arxiv url: http://arxiv.org/abs/2007.13971v1
- Date: Tue, 28 Jul 2020 03:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 02:46:58.197435
- Title: Accurate, Low-Latency Visual Perception for Autonomous
Racing:Challenges, Mechanisms, and Practical Solutions
- Title(参考訳): 自動運転レースにおける高精度・低遅延視知覚:課題, メカニズム, 実用的解決法
- Authors: Kieran Strobel, Sibo Zhu, Raphael Chang, Skanda Koppula
- Abstract要約: 本稿では、DUT18 Driverlessの低レイテンシ・高精度認識システムを構築するための課題と解決策について述べる。
DUT18Dの重要なコンポーネントは、YOLOv3ベースのオブジェクト検出、ポーズ推定、デュアルステレオビジョン/モノビジョンカメラのセットアップにおける時間同期である。
本研究では,実際のレースシナリオにおいて,その精度と低レイテンシを実証し,システムの徹底的な実験的評価を行う。
- 参考スコア(独自算出の注目度): 3.093385446319071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous racing provides the opportunity to test safety-critical perception
pipelines at their limit. This paper describes the practical challenges and
solutions to applying state-of-the-art computer vision algorithms to build a
low-latency, high-accuracy perception system for DUT18 Driverless (DUT18D), a
4WD electric race car with podium finishes at all Formula Driverless
competitions for which it raced. The key components of DUT18D include
YOLOv3-based object detection, pose estimation, and time synchronization on its
dual stereovision/monovision camera setup. We highlight modifications required
to adapt perception CNNs to racing domains, improvements to loss functions used
for pose estimation, and methodologies for sub-microsecond camera
synchronization among other improvements. We perform a thorough experimental
evaluation of the system, demonstrating its accuracy and low-latency in
real-world racing scenarios.
- Abstract(参考訳): 自動運転は、安全クリティカルな知覚パイプラインを限界までテストする機会を提供する。
本稿では,DUT18 Driverless (DUT18D) の低レイテンシかつ高精度な認識システムを構築するために最先端のコンピュータビジョンアルゴリズムを適用するための実践的課題と解決策について述べる。
dut18dの重要なコンポーネントは、yolov3ベースのオブジェクト検出、ポーズ推定、デュアルステレオビジョン/モノビジョンカメラの時間同期である。
我々は,認識cnnをレース領域に適応させるために必要な修正,ポーズ推定に用いるロス関数の改善,サブマイクロ秒カメラ同期のための方法論などを強調する。
本研究では,実世界のレースシナリオにおける精度と低レイテンシを実証し,システムの徹底的な実験評価を行う。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Transformer-based Fusion of 2D-pose and Spatio-temporal Embeddings for
Distracted Driver Action Recognition [8.841708075914353]
運転行動の時間的局所化は、先進的な運転支援システムと自然主義運転研究にとって重要である。
本研究では,映像行動認識と2次元人文推定ネットワークを1つのモデルに適用することにより,時間的局所化と分類精度の向上を目指す。
このモデルは、2023年のNVIDIA AI City ChallengeというA2テストセットで、自然な運転行動認識のためにうまく機能する。
論文 参考訳(メタデータ) (2024-03-11T10:26:38Z) - Beyond the Mud: Datasets and Benchmarks for Computer Vision in Off-Road
Racing [38.719032057630024]
オフロードバイクレーサーナンバーデータセットとMuddy Racerの再iDentificationデータセットは、オフロード競技中に6300枚以上の画像が撮影された。
オフザシェルフモデルはトランスファーが悪く、テキストスポッティングでは15%のエンドツーエンド(E2E)F1スコア、ReIDでは33%のランク1精度に達した。
微調整が大幅に改善され、E2EテキストスポッティングのF1スコアが53%、ReIDのランク1精度が79%に向上した。
論文 参考訳(メタデータ) (2024-02-12T19:42:05Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Anticipating Driving Behavior through Deep Learning-Based Policy
Prediction [66.344923925939]
我々は、通常のカメラで捉えたビデオフレームから得られる統合的な視覚特徴と、ポイント・クラウド・スキャナーから得られた奥行きの詳細を処理できるシステムを開発した。
このシステムは、車両の速度と操舵角度の両方を含む運転行動を予測するように設計されている。
評価の結果,テストシナリオの少なくとも半分において,予測値が有意な精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-20T17:38:55Z) - FSNet: Redesign Self-Supervised MonoDepth for Full-Scale Depth
Prediction for Autonomous Driving [18.02943016671203]
本研究では,自律走行シーンの高精度なスケール認識深度予測のための包括的自己教師型フレームワークを提案する。
特に,FSNetと呼ばれるフルスケール深度予測ネットワークを導入する。
FSNetを使えば、ロボットや車両は1台のカメラしか持たず、訓練用画像フレームやカメラポーズのシーケンスを収集し、余分なラベル付け作業や3Dデータなしで環境の正確な3D深度を推測することができる。
論文 参考訳(メタデータ) (2023-04-21T03:17:04Z) - Motion Planning and Control for Multi Vehicle Autonomous Racing at High
Speeds [100.61456258283245]
本稿では,自律走行のための多層移動計画と制御アーキテクチャを提案する。
提案手法はダララのAV-21レースカーに適用され、楕円形のレーストラックで25$m/s2$まで加速試験された。
論文 参考訳(メタデータ) (2022-07-22T15:16:54Z) - Indy Autonomous Challenge -- Autonomous Race Cars at the Handling Limits [81.22616193933021]
TUM Auton-omous Motorsportsは2021年10月、インディ・オートマチック・チャレンジに参加する。
インディアナポリス・モーター・スピードウェイのダララAV-21レースカー10台のうち1台を走らせることで、自動運転のソフトウェアスタックをベンチマークする。
これは、最も困難で稀な状況をマスターできる自律走行アルゴリズムを開発するための理想的な試験場である。
論文 参考訳(メタデータ) (2022-02-08T11:55:05Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Real-time Streaming Perception System for Autonomous Driving [2.6058660721533187]
本稿では,ストリーミング知覚チャレンジの第2位であるリアルタイム蒸気知覚システムについて述べる。
絶対的なパフォーマンスに重点を置いている従来のオブジェクト検出の課題とは異なり、ストリーミング認識タスクは精度とレイテンシのバランスを取る必要がある。
Argoverse-HDテストセットでは,必要なハードウェアで33.2ストリーミングAP(オーガナイザが検証した34.6ストリーミングAP)を実現する。
論文 参考訳(メタデータ) (2021-07-30T01:32:44Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。