論文の概要: Vision-Based Environmental Perception for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2212.11453v1
- Date: Thu, 22 Dec 2022 01:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:34:30.701508
- Title: Vision-Based Environmental Perception for Autonomous Driving
- Title(参考訳): 自律運転のための視覚的環境認識
- Authors: Fei Liu, Zihao Lu, Xianke Lin
- Abstract要約: 視覚認知は自律運転において重要な役割を果たす。
近年のディープラーニング手法の開発は信頼性と処理速度が向上している。
単眼カメラは、物体の深度を推定するために、単一の視点からの画像データを使用する。
同時位置情報マッピング(SLAM)は、道路環境のモデルを構築することができる。
- 参考スコア(独自算出の注目度): 4.138893879750758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual perception plays an important role in autonomous driving. One of the
primary tasks is object detection and identification. Since the vision sensor
is rich in color and texture information, it can quickly and accurately
identify various road information. The commonly used technique is based on
extracting and calculating various features of the image. The recent
development of deep learning-based method has better reliability and processing
speed and has a greater advantage in recognizing complex elements. For depth
estimation, vision sensor is also used for ranging due to their small size and
low cost. Monocular camera uses image data from a single viewpoint as input to
estimate object depth. In contrast, stereo vision is based on parallax and
matching feature points of different views, and the application of deep
learning also further improves the accuracy. In addition, Simultaneous Location
and Mapping (SLAM) can establish a model of the road environment, thus helping
the vehicle perceive the surrounding environment and complete the tasks. In
this paper, we introduce and compare various methods of object detection and
identification, then explain the development of depth estimation and compare
various methods based on monocular, stereo, and RDBG sensors, next review and
compare various methods of SLAM, and finally summarize the current problems and
present the future development trends of vision technologies.
- Abstract(参考訳): 視覚知覚は自律運転において重要な役割を果たす。
主なタスクの1つはオブジェクトの検出と識別です。
視覚センサは色やテクスチャ情報に富んでいるため、様々な道路情報を迅速かつ正確に識別することができる。
一般的に用いられる技法は、画像の様々な特徴を抽出し計算することに基づいている。
近年の深層学習法の開発は信頼性と処理速度が向上し,複雑な要素を認識する上で大きな利点がある。
深度推定には、小型で低コストの視覚センサも用いられる。
単眼カメラは、物体深度を推定するための入力として、単一の視点からの画像データを使用する。
対照的に、ステレオビジョンはパララックスと異なるビューの特徴点のマッチングに基づいており、ディープラーニングの適用によってさらに精度が向上する。
さらに、同時位置情報マッピング(SLAM)は、道路環境のモデルを構築し、車両が周囲の環境を認識しタスクを完了するのを助ける。
本稿では,物体検出と識別の様々な手法を紹介し,深度推定の展開を説明し,モノクラー,ステレオ,RDBGセンサに基づく様々な手法を比較し,次回レビューとSLAMの様々な手法の比較を行い,最後に現状の問題を要約し,今後のビジョン技術の発展動向を示す。
関連論文リスト
- Deep Perspective Transformation Based Vehicle Localization on Bird's Eye
View [0.49747156441456597]
従来のアプローチでは、環境をシミュレートする複数のセンサーのインストールに依存していた。
シーンのトップダウン表現を生成することで、代替ソリューションを提案する。
本稿では,RGB画像の視点ビューを,周囲の車両を分割した鳥眼ビューマップに変換するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T10:16:42Z) - R-C-P Method: An Autonomous Volume Calculation Method Using Image
Processing and Machine Vision [0.0]
2台のカメラを用いて、矩形物体の寸法をリアルタイムで測定した。
画像処理とエッジ検出を用いてR-C-P法を開発した。
表面積に加えて、R-C-P法は不連続エッジや体積も検出する。
論文 参考訳(メタデータ) (2023-08-19T15:39:27Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - On Human Visual Contrast Sensitivity and Machine Vision Robustness: A
Comparative Study [68.41864523774164]
色の違いがマシンビジョンにどのように影響するかは、まだよく研究されていない。
我々の研究は、視覚認識の人間の色覚と機械の色覚のギャップを埋めようとしている。
カラーコントラストと劣化画像の効果を広範囲に解析するために,新しい枠組みを2次元で考案した。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Towards Multimodal Multitask Scene Understanding Models for Indoor
Mobile Agents [49.904531485843464]
本稿では,現実世界の屋内環境におけるラベル付きデータの不十分,あるいは不可能,といった主な課題について論じる。
MMISM (Multi-modality input Multi-task output Indoor Scene Understanding Model) について述べる。
MMISMは、RGB画像だけでなく、スパースライダーポイントを入力と3Dオブジェクト検出、深さ完了、人間のポーズ推定、セマンティックセグメンテーションを出力タスクとみなしている。
MMISMはシングルタスクモデルよりも同等かそれ以上の性能を示す。
論文 参考訳(メタデータ) (2022-09-27T04:49:19Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Comparative study of 3D object detection frameworks based on LiDAR data
and sensor fusion techniques [0.0]
知覚システムは、車両の環境をリアルタイムで正確に解釈する上で重要な役割を果たす。
ディープラーニング技術は、センサーから大量のデータを意味情報に変換する。
3Dオブジェクト検出法は、LiDARやステレオカメラなどのセンサーから追加のポーズデータを利用することで、オブジェクトのサイズと位置に関する情報を提供する。
論文 参考訳(メタデータ) (2022-02-05T09:34:58Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - OmniDet: Surround View Cameras based Multi-task Visual Perception
Network for Autonomous Driving [10.3540046389057]
本研究は,未修正魚眼画像のマルチタスク視覚知覚ネットワークを提案する。
自動運転システムに必要な6つの主要なタスクで構成されている。
共同で訓練されたモデルは、それぞれのタスクバージョンよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-15T10:46:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。