論文の概要: VATLD: A Visual Analytics System to Assess, Understand and Improve
Traffic Light Detection
- arxiv url: http://arxiv.org/abs/2009.12975v1
- Date: Sun, 27 Sep 2020 22:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:53:12.080161
- Title: VATLD: A Visual Analytics System to Assess, Understand and Improve
Traffic Light Detection
- Title(参考訳): VATLD: 交通信号検出の評価・理解・改善のためのビジュアル分析システム
- Authors: Liang Gou, Lincan Zou, Nanxiang Li, Michael Hofmann, Arvind Kumar
Shekar, Axel Wendt and Liu Ren
- Abstract要約: 本稿では,自律運転アプリケーションにおける交通信号検知器の精度とロバスト性を評価・理解・改善する視覚分析システム,VATLDを提案する。
歪んだ表現学習は、人間に親しみやすい視覚的要約で人間の認知を強化するために、データ意味を抽出する。
また、視覚分析システムであるVATLDによる様々な性能改善戦略の有効性を実証し、自律運転における安全クリティカルな応用の実践的意義を示す。
- 参考スコア(独自算出の注目度): 15.36267013724161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic light detection is crucial for environment perception and
decision-making in autonomous driving. State-of-the-art detectors are built
upon deep Convolutional Neural Networks (CNNs) and have exhibited promising
performance. However, one looming concern with CNN based detectors is how to
thoroughly evaluate the performance of accuracy and robustness before they can
be deployed to autonomous vehicles. In this work, we propose a visual analytics
system, VATLD, equipped with a disentangled representation learning and
semantic adversarial learning, to assess, understand, and improve the accuracy
and robustness of traffic light detectors in autonomous driving applications.
The disentangled representation learning extracts data semantics to augment
human cognition with human-friendly visual summarization, and the semantic
adversarial learning efficiently exposes interpretable robustness risks and
enables minimal human interaction for actionable insights. We also demonstrate
the effectiveness of various performance improvement strategies derived from
actionable insights with our visual analytics system, VATLD, and illustrate
some practical implications for safety-critical applications in autonomous
driving.
- Abstract(参考訳): 交通光検出は、自動運転における環境認識と意思決定に不可欠である。
最先端の検出器は深層畳み込みニューラルネットワーク(CNN)上に構築されており、有望な性能を示している。
しかし、cnnベースの検出器に対する懸念の1つは、自動運転車に配備する前に正確性と堅牢性のパフォーマンスを徹底的に評価する方法である。
本研究では,自律運転アプリケーションにおける交通光検出器の精度とロバスト性の評価,理解,向上を図るために,不整合表現学習とセマンティック敵対学習を備えた視覚解析システムVATLDを提案する。
不整合表現学習は、人間に親しみやすい視覚的要約で人間の認知を高めるためにデータ意味を抽出し、セマンティック敵対学習は、解釈可能な堅牢性リスクを効果的に露呈し、行動可能な洞察に対する人間との最小限の相互作用を可能にする。
また、視覚分析システムであるVATLDによる実用的な洞察から導かれる様々なパフォーマンス改善戦略の有効性を実証し、自律運転における安全クリティカルな応用への実践的な影響を示す。
関連論文リスト
- Real-Time Detection and Analysis of Vehicles and Pedestrians using Deep Learning [0.0]
現在の交通監視システムは、小さな物体や歩行者をリアルタイムで効果的に認識する上で大きな困難に直面している。
本研究は、車や人の正確なリアルタイム認識のための複雑な視覚入力を処理できる高度なディープラーニングフレームワークの作成と検証に重点を置いている。
YOLOv8 大型モデルは、特に歩行者認識において最も効果的で、精度と堅牢性が高いことが判明した。
論文 参考訳(メタデータ) (2024-04-11T18:42:14Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - A Cognitive-Based Trajectory Prediction Approach for Autonomous Driving [21.130543517747995]
本稿では,教師による知識蒸留の枠組みを取り入れたHuman-Like Trajectory Prediction (H)モデルを提案する。
教師」モデルは人間の脳、特に後頭葉と側頭葉の機能の視覚的処理を模倣する。
学生」モデルはリアルタイムのインタラクションと意思決定に焦点を合わせ、正確な予測のために重要な知覚的手がかりを捉えます。
論文 参考訳(メタデータ) (2024-02-29T15:22:26Z) - Efficient Object Detection in Autonomous Driving using Spiking Neural
Networks: Performance, Energy Consumption Analysis, and Insights into
Open-set Object Discovery [8.255197802529118]
性能とエネルギー消費のバランスのとれたトレードオフは、自動運転車の持続可能性に不可欠である。
本研究では,スパイキングニューラルネットワークを用いて,高性能かつ効率的なモデルを実現することができることを示す。
論文 参考訳(メタデータ) (2023-12-12T17:47:13Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Building Trust in Autonomous Vehicles: Role of Virtual Reality Driving
Simulators in HMI Design [8.39368916644651]
本研究では,生理的信号から収集した連続的客観的情報に基づいて,AVのユーザエクスペリエンスを検証する手法を提案する。
本手法を車両の感覚・計画システムに関する視覚的手がかりを提供するヘッドアップディスプレイインタフェースの設計に適用した。
論文 参考訳(メタデータ) (2020-07-27T08:42:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。