論文の概要: Vision-Based Environmental Perception for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2212.11453v1
- Date: Thu, 22 Dec 2022 01:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:34:30.701508
- Title: Vision-Based Environmental Perception for Autonomous Driving
- Title(参考訳): 自律運転のための視覚的環境認識
- Authors: Fei Liu, Zihao Lu, Xianke Lin
- Abstract要約: 視覚認知は自律運転において重要な役割を果たす。
近年のディープラーニング手法の開発は信頼性と処理速度が向上している。
単眼カメラは、物体の深度を推定するために、単一の視点からの画像データを使用する。
同時位置情報マッピング(SLAM)は、道路環境のモデルを構築することができる。
- 参考スコア(独自算出の注目度): 4.138893879750758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual perception plays an important role in autonomous driving. One of the
primary tasks is object detection and identification. Since the vision sensor
is rich in color and texture information, it can quickly and accurately
identify various road information. The commonly used technique is based on
extracting and calculating various features of the image. The recent
development of deep learning-based method has better reliability and processing
speed and has a greater advantage in recognizing complex elements. For depth
estimation, vision sensor is also used for ranging due to their small size and
low cost. Monocular camera uses image data from a single viewpoint as input to
estimate object depth. In contrast, stereo vision is based on parallax and
matching feature points of different views, and the application of deep
learning also further improves the accuracy. In addition, Simultaneous Location
and Mapping (SLAM) can establish a model of the road environment, thus helping
the vehicle perceive the surrounding environment and complete the tasks. In
this paper, we introduce and compare various methods of object detection and
identification, then explain the development of depth estimation and compare
various methods based on monocular, stereo, and RDBG sensors, next review and
compare various methods of SLAM, and finally summarize the current problems and
present the future development trends of vision technologies.
- Abstract(参考訳): 視覚知覚は自律運転において重要な役割を果たす。
主なタスクの1つはオブジェクトの検出と識別です。
視覚センサは色やテクスチャ情報に富んでいるため、様々な道路情報を迅速かつ正確に識別することができる。
一般的に用いられる技法は、画像の様々な特徴を抽出し計算することに基づいている。
近年の深層学習法の開発は信頼性と処理速度が向上し,複雑な要素を認識する上で大きな利点がある。
深度推定には、小型で低コストの視覚センサも用いられる。
単眼カメラは、物体深度を推定するための入力として、単一の視点からの画像データを使用する。
対照的に、ステレオビジョンはパララックスと異なるビューの特徴点のマッチングに基づいており、ディープラーニングの適用によってさらに精度が向上する。
さらに、同時位置情報マッピング(SLAM)は、道路環境のモデルを構築し、車両が周囲の環境を認識しタスクを完了するのを助ける。
本稿では,物体検出と識別の様々な手法を紹介し,深度推定の展開を説明し,モノクラー,ステレオ,RDBGセンサに基づく様々な手法を比較し,次回レビューとSLAMの様々な手法の比較を行い,最後に現状の問題を要約し,今後のビジョン技術の発展動向を示す。
関連論文リスト
- A Comprehensive Review of 3D Object Detection in Autonomous Driving: Technological Advances and Future Directions [11.071271817366739]
3次元物体認識は、自律運転システムの開発において重要な要素となっている。
本稿では,カメラベース,LiDARベース,核融合検出技術を中心に,従来の3次元物体検出手法を概説する。
本稿では、時間知覚、占有グリッド、エンドツーエンド学習フレームワークなどの精度向上手法を含む今後の方向性について論じる。
論文 参考訳(メタデータ) (2024-08-28T01:08:33Z) - How to deal with glare for improved perception of Autonomous Vehicles [0.0]
視覚センサーは多用途であり、色、テクスチャ、形状、深さなど幅広い視覚的手がかりを捉えることができる。
視覚に基づく環境認識システムは、明るい光源の存在下での光沢によって容易に影響を受ける。
論文 参考訳(メタデータ) (2024-04-17T02:05:05Z) - Cohere3D: Exploiting Temporal Coherence for Unsupervised Representation
Learning of Vision-based Autonomous Driving [73.3702076688159]
本稿では,コヒーレントなインスタンス表現を長期入力シーケンスで学習するための,新しいコントラスト学習アルゴリズムであるCohere3Dを提案する。
我々は,様々な下流認識,予測,計画タスクにおいて,事前学習したモデルを微調整することにより,アルゴリズムを評価する。
論文 参考訳(メタデータ) (2024-02-23T19:43:01Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Towards Multimodal Multitask Scene Understanding Models for Indoor
Mobile Agents [49.904531485843464]
本稿では,現実世界の屋内環境におけるラベル付きデータの不十分,あるいは不可能,といった主な課題について論じる。
MMISM (Multi-modality input Multi-task output Indoor Scene Understanding Model) について述べる。
MMISMは、RGB画像だけでなく、スパースライダーポイントを入力と3Dオブジェクト検出、深さ完了、人間のポーズ推定、セマンティックセグメンテーションを出力タスクとみなしている。
MMISMはシングルタスクモデルよりも同等かそれ以上の性能を示す。
論文 参考訳(メタデータ) (2022-09-27T04:49:19Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Comparative study of 3D object detection frameworks based on LiDAR data
and sensor fusion techniques [0.0]
知覚システムは、車両の環境をリアルタイムで正確に解釈する上で重要な役割を果たす。
ディープラーニング技術は、センサーから大量のデータを意味情報に変換する。
3Dオブジェクト検出法は、LiDARやステレオカメラなどのセンサーから追加のポーズデータを利用することで、オブジェクトのサイズと位置に関する情報を提供する。
論文 参考訳(メタデータ) (2022-02-05T09:34:58Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - OmniDet: Surround View Cameras based Multi-task Visual Perception
Network for Autonomous Driving [10.3540046389057]
本研究は,未修正魚眼画像のマルチタスク視覚知覚ネットワークを提案する。
自動運転システムに必要な6つの主要なタスクで構成されている。
共同で訓練されたモデルは、それぞれのタスクバージョンよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-15T10:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。