論文の概要: Computer Stereo Vision for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2012.03194v2
- Date: Thu, 17 Dec 2020 03:42:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:58:25.392672
- Title: Computer Stereo Vision for Autonomous Driving
- Title(参考訳): 自律運転のためのコンピュータステレオビジョン
- Authors: Rui Fan, Li Wang, Mohammud Junaid Bocus, Ioannis Pitas
- Abstract要約: コンピュータステレオビジョンは、深度知覚のために自律走行車に広く応用されている。
本章では,自律走行車システムにおけるコンピュータステレオビジョンのハードウェア面とソフトウェア面について紹介する。
- 参考スコア(独自算出の注目度): 31.517828028200682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an important component of autonomous systems, autonomous car perception
has had a big leap with recent advances in parallel computing architectures.
With the use of tiny but full-feature embedded supercomputers, computer stereo
vision has been prevalently applied in autonomous cars for depth perception.
The two key aspects of computer stereo vision are speed and accuracy. They are
both desirable but conflicting properties, as the algorithms with better
disparity accuracy usually have higher computational complexity. Therefore, the
main aim of developing a computer stereo vision algorithm for resource-limited
hardware is to improve the trade-off between speed and accuracy. In this
chapter, we introduce both the hardware and software aspects of computer stereo
vision for autonomous car systems. Then, we discuss four autonomous car
perception tasks, including 1) visual feature detection, description and
matching, 2) 3D information acquisition, 3) object detection/recognition and 4)
semantic image segmentation. The principles of computer stereo vision and
parallel computing on multi-threading CPU and GPU architectures are then
detailed.
- Abstract(参考訳): 自律システムの重要なコンポーネントとして、自律的な自動車認識は、最近の並列コンピューティングアーキテクチャの進歩で大きな飛躍を遂げた。
小型だがフル機能の組み込みスーパーコンピュータを使用することで、コンピュータステレオビジョンは自動運転車の奥行き認識に広く採用されている。
コンピュータステレオビジョンの2つの重要な側面は、スピードと精度である。
これらはどちらも望ましいが相反する性質であり、より精度のよいアルゴリズムは計算の複雑さが高い。
したがって、リソース制限ハードウェアのためのコンピュータステレオビジョンアルゴリズムを開発する主な目的は、速度と精度のトレードオフを改善することである。
本章では,自律走行車システムにおけるコンピュータステレオビジョンのハードウェアとソフトウェアの両方について紹介する。
次に, 視覚的特徴検出, 説明とマッチング, 2) 3D情報取得, 3) 物体検出/認識, 4) セマンティックイメージセグメンテーションの4つの自律車認識タスクについて議論する。
次に、マルチスレッドCPUおよびGPUアーキテクチャにおけるコンピュータステレオビジョンと並列コンピューティングの原理を詳述する。
関連論文リスト
- Advancing Autonomous Driving Perception: Analysis of Sensor Fusion and Computer Vision Techniques [0.0]
このプロジェクトは、自動運転ロボットの理解とナビゲーション能力の向上に焦点を当てている。
既存の検出と追跡アルゴリズムを用いて、未知のマップ2Dマップへのより良いナビゲーションを実現する方法について検討する。
論文 参考訳(メタデータ) (2024-11-15T19:11:58Z) - Cohere3D: Exploiting Temporal Coherence for Unsupervised Representation
Learning of Vision-based Autonomous Driving [73.3702076688159]
本稿では,コヒーレントなインスタンス表現を長期入力シーケンスで学習するための,新しいコントラスト学習アルゴリズムであるCohere3Dを提案する。
我々は,様々な下流認識,予測,計画タスクにおいて,事前学習したモデルを微調整することにより,アルゴリズムを評価する。
論文 参考訳(メタデータ) (2024-02-23T19:43:01Z) - Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions [2.693342141713236]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Surround-View Cameras based Holistic Visual Perception for Automated
Driving [0.6091702876917281]
我々は,高い性能と低計算量を有する近接場認識アルゴリズムの開発に焦点をあてる。
コンピュータのこれらの能力は、自動運転車、拡張現実、アーキテクチャサーベイなど、さまざまな用途に欠かせない。
論文 参考訳(メタデータ) (2022-06-11T14:51:30Z) - KITTI-360: A Novel Dataset and Benchmarks for Urban Scene Understanding
in 2D and 3D [67.50776195828242]
KITTI-360は、よりリッチな入力モダリティ、包括的なセマンティックインスタンスアノテーション、正確なローカライゼーションを含む郊外の運転データセットである。
その結果,150k以上のセマンティクスとインスタンスのアノテート画像と1Bのアノテート3Dポイントが得られた。
我々は、同じデータセット上のコンピュータビジョン、グラフィックス、ロボット工学の問題を含む、モバイル知覚に関連するいくつかのタスクのベンチマークとベースラインを構築した。
論文 参考訳(メタデータ) (2021-09-28T00:41:29Z) - YOLOP: You Only Look Once for Panoptic Driving Perception [21.802146960999394]
本稿では,交通物体検出,乾燥領域分割,車線検出を同時に行うパノプティカル駆動認識ネットワーク(YOLOP)を提案する。
特徴抽出のための1つのエンコーダと、特定のタスクを処理する3つのデコーダで構成されている。
私たちのモデルは、BDD100Kデータセットで非常によく機能し、正確性とスピードの観点から、3つのタスクすべてで最先端の処理を実現しています。
論文 参考訳(メタデータ) (2021-08-25T14:19:42Z) - Unsupervised Learning of Visual 3D Keypoints for Control [104.92063943162896]
高次元画像からの感覚運動制御ポリシーの学習は、基礎となる視覚表現の品質に大きく依存する。
本稿では,画像から3次元幾何学的構造を直接教師なしで学習するフレームワークを提案する。
これらの発見された3Dキーポイントは、時間と3D空間の両方で一貫した方法で、ロボットの関節と物体の動きを有意義にキャプチャする傾向がある。
論文 参考訳(メタデータ) (2021-06-14T17:59:59Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。