論文の概要: AurigaNet: A Real-Time Multi-Task Network for Enhanced Urban Driving Perception
- arxiv url: http://arxiv.org/abs/2602.10660v1
- Date: Wed, 11 Feb 2026 09:04:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.61416
- Title: AurigaNet: A Real-Time Multi-Task Network for Enhanced Urban Driving Perception
- Title(参考訳): AurigaNet: 都市走行知覚を高めるリアルタイムマルチタスクネットワーク
- Authors: Kiarash Ghasemzadeh, Sedigheh Dehghani,
- Abstract要約: 自動運転車は交通事故を減らし、渋滞を緩和し、都市移動性を高める大きな可能性を秘めている。
しかし、自動運転車のための信頼性の高いAIシステムの開発は、依然として大きな課題である。
AurigaNetは、自律運転知覚の境界を押し上げるために設計された高度なマルチタスクネットワークアーキテクチャである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-driving cars hold significant potential to reduce traffic accidents, alleviate congestion, and enhance urban mobility. However, developing reliable AI systems for autonomous vehicles remains a substantial challenge. Over the past decade, multi-task learning has emerged as a powerful approach to address complex problems in driving perception. Multi-task networks offer several advantages, including increased computational efficiency, real-time processing capabilities, optimized resource utilization, and improved generalization. In this study, we present AurigaNet, an advanced multi-task network architecture designed to push the boundaries of autonomous driving perception. AurigaNet integrates three critical tasks: object detection, lane detection, and drivable area instance segmentation. The system is trained and evaluated using the BDD100K dataset, renowned for its diversity in driving conditions. Key innovations of AurigaNet include its end-to-end instance segmentation capability, which significantly enhances both accuracy and efficiency in path estimation for autonomous vehicles. Experimental results demonstrate that AurigaNet achieves an 85.2% IoU in drivable area segmentation, outperforming its closest competitor by 0.7%. In lane detection, AurigaNet achieves a remarkable 60.8% IoU, surpassing other models by more than 30%. Furthermore, the network achieves an mAP@0.5:0.95 of 47.6% in traffic object detection, exceeding the next leading model by 2.9%. Additionally, we validate the practical feasibility of AurigaNet by deploying it on embedded devices such as the Jetson Orin NX, where it demonstrates competitive real-time performance. These results underscore AurigaNet's potential as a robust and efficient solution for autonomous driving perception systems. The code can be found here https://github.com/KiaRational/AurigaNet.
- Abstract(参考訳): 自動運転車は交通事故を減らし、渋滞を緩和し、都市移動性を高める大きな可能性を秘めている。
しかし、自動運転車のための信頼性の高いAIシステムの開発は、依然として大きな課題である。
過去10年間で、マルチタスク学習は知覚を駆動する複雑な問題に対処するための強力なアプローチとして現れてきた。
マルチタスクネットワークには、計算効率の向上、リアルタイム処理能力の向上、リソース利用の最適化、一般化の改善など、いくつかの利点がある。
本研究では,自律運転知覚の境界を推し進めるために設計された,高度なマルチタスクネットワークアーキテクチャであるAurigaNetを提案する。
AurigaNetはオブジェクト検出、車線検出、乾燥可能な領域インスタンスセグメンテーションという3つの重要なタスクを統合している。
システムはBDD100Kデータセットを使用してトレーニングされ、評価され、運転条件の多様性で有名である。
AurigaNetの主なイノベーションは、エンドツーエンドのインスタンスセグメンテーション機能である。
実験の結果、AurigaNetは乾燥可能な領域のセグメンテーションにおいて85.2%のIoUを達成した。
レーン検出では、AurigaNetは60.8%のIoUを達成し、他のモデルを30%以上上回っている。
さらに、このネットワークは、47.6%のトラフィックオブジェクト検出のmAP@0.5:0.95を達成し、次のリードモデルの2.9%を上回った。
さらに、AurigaNetをJetson Orin NXなどの組み込みデバイスにデプロイすることで、競合するリアルタイムパフォーマンスを示すことで、AurigaNetの実用可能性を検証する。
これらの結果は、自律運転認識システムのための堅牢で効率的なソリューションとして、AurigaNetの可能性を裏付けるものである。
コードはhttps://github.com/KiaRational/AurigaNetで見ることができる。
関連論文リスト
- Advancing Autonomous Vehicle Intelligence: Deep Learning and Multimodal LLM for Traffic Sign Recognition and Robust Lane Detection [11.743721109110792]
本稿では,先進的な深層学習技術とマルチモーダル大規模言語モデル(MLLM)を組み合わせた総合的な道路認識手法を提案する。
交通信号認識では,ResNet-50,Yv8,RT-DETRを評価し,ResNet-50で99.8%,YOLOv8で98.0%,RT-DETRで96.6%の精度を達成した。
車線検出のために,曲線フィッティングにより強化されたCNNに基づくセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2025-03-08T19:12:36Z) - Penalty-Based Imitation Learning With Cross Semantics Generation Sensor
Fusion for Autonomous Driving [1.2749527861829049]
本稿では,複数の情報モダリティを統合するために,ペナルティに基づく模倣学習手法を提案する。
最新技術(SOTA)モデルであるInterFuserと比較して,運転スコアが12%以上増加していることが観察された。
本モデルでは, 推論速度を7倍に向上し, モデルサイズを約30%削減しながら, この性能向上を実現している。
論文 参考訳(メタデータ) (2023-03-21T14:29:52Z) - YOLOPv2: Better, Faster, Stronger for Panoptic Driving Perception [1.6683976936678229]
マルチタスク学習アプローチは、単眼駆動認識問題の解法において有望な結果を得た。
本稿では,交通物体検出,ドライビング可能な道路領域分割,車線検出のタスクを同時に行うために,効果的かつ効率的なマルチタスク学習ネットワークを提案する。
我々のモデルは、BDD100Kデータセットの精度とスピードの観点から、新しい最先端(SOTA)パフォーマンスを実現しました。
論文 参考訳(メタデータ) (2022-08-24T11:00:27Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - An Efficient Deep Learning Approach Using Improved Generative
Adversarial Networks for Incomplete Information Completion of Self-driving [2.8504921333436832]
自律運転において不完全な車両点雲を高精度かつ効率的に修復するための効率的な深層学習手法を提案する。
改良されたPF-Netは、オリジナルのPF-Netと比べてほぼ同じ精度で19倍以上のスピードアップを達成することができる。
論文 参考訳(メタデータ) (2021-09-01T08:06:23Z) - A Deep Value-network Based Approach for Multi-Driver Order Dispatching [55.36656442934531]
そこで本研究では,注文発送のための深層強化学習に基づくソリューションを提案する。
DiDiの配車プラットフォーム上で大規模なオンラインA/Bテストを実施している。
その結果,CVNetは近年提案されているディスパッチ手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-06-08T16:27:04Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。