論文の概要: Efficient textual explanations for complex road and traffic scenarios
based on semantic segmentation
- arxiv url: http://arxiv.org/abs/2205.14118v1
- Date: Thu, 26 May 2022 15:20:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:53:25.162191
- Title: Efficient textual explanations for complex road and traffic scenarios
based on semantic segmentation
- Title(参考訳): セマンティックセグメンテーションに基づく複雑な道路・交通シナリオの効率的なテキスト説明
- Authors: Yiyue Zhao, Xinyu Yun, Chen Chai, Zhiyu Liu, Wenxuan Fan, Xiao Luo
- Abstract要約: 視覚知覚の精度は、多様な気象条件と不確実な交通流の下で急激に低下する。
視覚認識システムのユーザ受け入れと信頼性を高めるために、シーンの進化に関するテキストによる説明が不可欠である。
本研究では,複雑な道路・交通シナリオに対する包括的で効率的なテキスト説明モデルを提案する。
- 参考スコア(独自算出の注目度): 3.5777343838792945
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The complex driving environment brings great challenges to the visual
perception of autonomous vehicles. The accuracy of visual perception drops off
sharply under diverse weather conditions and uncertain traffic flow. Black box
model makes it difficult to interpret the mechanisms of visual perception. To
enhance the user acceptance and reliability of the visual perception system, a
textual explanation of the scene evolvement is essential. It analyzes the
geometry and topology structure in the complex environment and offers clues to
decision and control. However, the existing scene explanation has been
implemented as a separate model. It cannot detect comprehensive textual
information and requires a high computational load and time consumption. Thus,
this study proposed a comprehensive and efficient textual explanation model for
complex road and traffic scenarios. From 336k video frames of the driving
environment, critical images of complex road and traffic scenarios were
selected into a dataset. Through transfer learning, this study established an
accurate and efficient segmentation model to gain semantic information. Based
on the XGBoost algorithm, a comprehensive model was developed. The model
obtained textual information including road types, the motion of conflict
objects, and scenario complexity. The approach was verified on the real-world
road. It improved the perception accuracy of critical traffic elements to
78.8%. The time consumption reached 13 minutes for each epoch, which was 11.5
times more efficient compared with the pre-trained network. The textual
information analyzed from the model was also accordant with reality. The
findings explain how autonomous vehicle detects the driving environment, which
lays a foundation for subsequent decision and control. It can improve the
perception ability by enriching the prior knowledge and judgments for complex
traffic situations.
- Abstract(参考訳): 複雑な運転環境は、自動運転車の視覚的認識に大きな課題をもたらす。
視覚知覚の精度は、多様な気象条件と不確実な交通流の下で急激に低下する。
ブラックボックスモデルは視覚知覚のメカニズムを解釈するのが困難である。
視覚認識システムのユーザ受け入れと信頼性を高めるために、シーンの進化に関するテキストによる説明が不可欠である。
複雑な環境における幾何学とトポロジ構造を分析し、決定と制御の手がかりを提供する。
しかし、既存のシーン説明は別モデルとして実装されている。
包括的なテキスト情報は検出できず、高い計算負荷と時間消費を必要とする。
そこで本研究では,複雑な道路・交通シナリオに対する包括的かつ効率的な説明モデルを提案する。
運転環境の336kビデオフレームから,複雑な道路や交通シナリオの重要画像がデータセットに選択された。
本研究では,伝達学習を通じて意味情報を得るための高精度かつ効率的なセグメンテーションモデルを構築した。
XGBoostアルゴリズムに基づいて包括的モデルを開発した。
モデルは、道路タイプ、競合オブジェクトの動き、シナリオの複雑さを含むテキスト情報を得た。
そのアプローチは現実世界の道路で検証された。
重要な交通要素の認識精度は78.8%に向上した。
各エポックの所要時間は13分であり, 前訓練ネットワークの11.5倍の効率であった。
モデルから分析したテキスト情報も現実と一致していた。
調査結果は、自動運転車が運転環境をどのように検知するかを説明している。
複雑な交通状況に対する事前知識と判断を豊かにすることで、知覚能力を向上させることができる。
関連論文リスト
- Elastic Interaction Energy-Informed Real-Time Traffic Scene Perception [8.429178814528617]
EIEGSegという名前のトポロジ対応エネルギー損失関数に基づくネットワークトレーニング戦略を提案する。
EIEGSegは、リアルタイムの交通シーン認識におけるマルチクラスセグメンテーションのために設計されている。
以上の結果から,EIEGSegは,特にリアルタイム軽量ネットワークにおいて,性能を継続的に向上することを示す。
論文 参考訳(メタデータ) (2023-10-02T01:30:42Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Relation-based Motion Prediction using Traffic Scene Graphs [12.68339084600328]
交通現場の関連情報を表現し,その環境を理解することは,自動運転の成功に不可欠である。
本研究では,交通参加者に関する様々な予測を行うために,交通シーンを空間意味シーングラフの形式でモデル化する。
我々の学習と推論手法はグラフニューラルネットワーク(GNN)を用いて,交通参加者間の空間的意味関係に関する明示的な情報を取り入れることで,述語結果が改善されることを示す。
論文 参考訳(メタデータ) (2022-11-24T13:04:08Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - 3D Scene Understanding at Urban Intersection using Stereo Vision and
Digital Map [4.640144833676576]
都市交差点における交通状況の空間的・時間的解析にステレオビジョンと3次元ディジタルマップを用いた手法を提案する。
東京都の都市キャニオンで収集した実交通データに対して,提案手法を質的,定量的に評価し,システムの有効性を実証した。
論文 参考訳(メタデータ) (2021-12-10T02:05:15Z) - Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study [38.65843674620544]
我々は,カメラ画像とDigital Twin情報をクラウドから統合して,インテリジェントな車両のより良い意思決定を支援する,新しいビジョンクラウドデータ融合手法を導入する。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
論文 参考訳(メタデータ) (2021-12-07T23:42:21Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。