論文の概要: 3D Object Visibility Prediction in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2403.03681v1
- Date: Wed, 6 Mar 2024 13:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 15:05:20.260746
- Title: 3D Object Visibility Prediction in Autonomous Driving
- Title(参考訳): 自律運転における物体視認性予測
- Authors: Chuanyu Luo, Nuo Cheng, Ren Zhong, Haipeng Jiang, Wenyu Chen, Aoli
Wang, Pu Li
- Abstract要約: 本稿では,新しい属性とその対応するアルゴリズムである3Dオブジェクトの可視性について述べる。
この属性の提案とその計算戦略は、下流タスクの能力を拡大することを目的としている。
- 参考スコア(独自算出の注目度): 6.802572869909114
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rapid advancement of hardware and software technologies, research in
autonomous driving has seen significant growth. The prevailing framework for
multi-sensor autonomous driving encompasses sensor installation, perception,
path planning, decision-making, and motion control. At the perception phase, a
common approach involves utilizing neural networks to infer 3D bounding box
(Bbox) attributes from raw sensor data, including classification, size, and
orientation. In this paper, we present a novel attribute and its corresponding
algorithm: 3D object visibility. By incorporating multi-task learning, the
introduction of this attribute, visibility, negligibly affects the model's
effectiveness and efficiency. Our proposal of this attribute and its
computational strategy aims to expand the capabilities for downstream tasks,
thereby enhancing the safety and reliability of real-time autonomous driving in
real-world scenarios.
- Abstract(参考訳): ハードウェアとソフトウェア技術の急速な進歩により、自動運転の研究は大きな成長を遂げている。
多センサ自動運転の一般的なフレームワークは、センサーの設置、知覚、経路計画、意思決定、移動制御を含む。
知覚フェーズでは、ニューラルネットワークを利用して、分類、サイズ、方向など、生のセンサーデータから3dバウンディングボックス(bbox)属性を推論する。
本稿では,新しい属性とそのアルゴリズムである3dオブジェクトの可視性について述べる。
マルチタスク学習を導入することで、この属性の導入、可視性はモデルの有効性と効率に悪影響を及ぼす。
この属性の提案とその計算戦略は、下流タスクの能力を拡大し、現実のシナリオにおけるリアルタイム自動運転の安全性と信頼性を高めることを目的としている。
関連論文リスト
- ZOPP: A Framework of Zero-shot Offboard Panoptic Perception for Autonomous Driving [44.174489160967056]
オフボード認識は、自動運転シーンのための高品質な3Dラベルを自動生成することを目的としている。
自律走行シーンのためのZOPP(Zero-shot Offboard Panoptic Perception)フレームワークを提案する。
ZOPPは、視覚基礎モデルの強力なゼロショット認識機能と、ポイントクラウドから派生した3D表現を統合している。
論文 参考訳(メタデータ) (2024-11-08T03:52:32Z) - A Comprehensive Review of 3D Object Detection in Autonomous Driving: Technological Advances and Future Directions [11.071271817366739]
3次元物体認識は、自律運転システムの開発において重要な要素となっている。
本稿では,カメラベース,LiDARベース,核融合検出技術を中心に,従来の3次元物体検出手法を概説する。
本稿では、時間知覚、占有グリッド、エンドツーエンド学習フレームワークなどの精度向上手法を含む今後の方向性について論じる。
論文 参考訳(メタデータ) (2024-08-28T01:08:33Z) - Multi-task Learning for Real-time Autonomous Driving Leveraging
Task-adaptive Attention Generator [15.94714567272497]
我々は,モノクロ3次元物体検出,セマンティックセグメンテーション,深度推定という3つの重要な自律運転タスクに適応する新しいリアルタイムマルチタスクネットワークを提案する。
マルチタスク学習の課題であるネガティブトランスファーの課題に対処するために,タスク適応型アテンションジェネレータを導入する。
私たちの厳格に最適化されたネットワークは、Cityscapes-3Dデータセットでテストすると、さまざまなベースラインモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-03-06T05:04:40Z) - End-to-end Autonomous Driving: Challenges and Frontiers [45.391430626264764]
エンドツーエンドの自動運転におけるモチベーション、ロードマップ、方法論、課題、今後のトレンドについて、270以上の論文を包括的に分析する。
マルチモダリティ、解釈可能性、因果的混乱、堅牢性、世界モデルなど、いくつかの重要な課題を掘り下げます。
基礎モデルと視覚前訓練の現在の進歩と、これらの技術をエンドツーエンドの駆動フレームワークに組み込む方法について論じる。
論文 参考訳(メタデータ) (2023-06-29T14:17:24Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Visual Perception System for Autonomous Driving [9.659835301514288]
本研究は、走行物体の軌跡追跡と予測を統合して衝突を防止する、自律走行のための視覚的認識システムを導入する。
このシステムは歩行者の動きの手がかりを利用して、その動きを監視し、予測し、同時に環境をマッピングする。
このアプローチの性能、効率、レジリエンスは、シミュレーションと実世界の両方のデータセットの包括的な評価によって実証される。
論文 参考訳(メタデータ) (2023-03-03T23:12:43Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。