論文の概要: A-Eye: Driving with the Eyes of AI for Corner Case Generation
- arxiv url: http://arxiv.org/abs/2202.10803v1
- Date: Tue, 22 Feb 2022 10:42:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 16:23:19.475359
- Title: A-Eye: Driving with the Eyes of AI for Corner Case Generation
- Title(参考訳): A-Eye: コーナーケース生成のためのAIの目で運転
- Authors: Kamil Kowol and Stefan Bracke and Hanno Gottschalk
- Abstract要約: この作業の全体的な目標は、いわゆるコーナーケースによる自動運転のためのトレーニングデータを強化することだ。
本稿では,人為的ループ手法を用いて合成コーナーケースを生成するテストリグの設計について述べる。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The overall goal of this work is to enrich training data for automated
driving with so called corner cases. In road traffic, corner cases are
critical, rare and unusual situations that challenge the perception by AI
algorithms. For this purpose, we present the design of a test rig to generate
synthetic corner cases using a human-in-the-loop approach. For the test rig, a
real-time semantic segmentation network is trained and integrated into the
driving simulation software CARLA in such a way that a human can drive on the
network's prediction. In addition, a second person gets to see the same scene
from the original CARLA output and is supposed to intervene with the help of a
second control unit as soon as the semantic driver shows dangerous driving
behavior. Interventions potentially indicate poor recognition of a critical
scene by the segmentation network and then represents a corner case. In our
experiments, we show that targeted enrichment of training data with corner
cases leads to improvements in pedestrian detection in safety relevant episodes
in road traffic.
- Abstract(参考訳): この作業の全体的な目標は、いわゆるコーナーケースによる自動運転のためのトレーニングデータを強化することだ。
道路交通では、コーナーケースは、AIアルゴリズムによる認識に挑戦する臨界、まれ、異常な状況である。
そこで本研究では,人工コーナーケースを生成するためのテストリグの設計について述べる。
テストリグでは、人間がネットワークの予測を駆動できるように、リアルタイムセマンティックセグメンテーションネットワークをトレーニングし、駆動シミュレーションソフトウェアCARLAに統合する。
さらに、第2者は、元のCARLA出力から同じシーンを見ることができるようになり、セマンティックドライバが危険な運転行動を示すとすぐに、第2制御ユニットの助けを借りて介入する。
介入は、セグメンテーションネットワークによるクリティカルシーンの認識不足を示し、コーナーケースを表す可能性がある。
本実験では,コーナーケースを用いたトレーニングデータの強化が,道路交通の安全関連エピソードにおける歩行者検出の改善につながることを示す。
関連論文リスト
- A Semi-Automated Corner Case Detection and Evaluation Pipeline [0.0]
知覚システムは、ディープニューラルネットワークをトレーニングするために大きなデータセットを必要とする。
これらのデータセットのどの部分がコーナーケースを記述しているかを知ることは、ネットワークのトレーニングやテストにおいて有利である。
本稿では,集合的知識記述を拡張KI Absicherungオントロジーに変換するパイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-25T12:06:43Z) - survAIval: Survival Analysis with the Eyes of AI [0.6445605125467573]
本研究では,自動運転シミュレータと2人の人間ドライバーを用いて,自動運転のためのトレーニングデータを強化する新しい手法を提案する。
本研究は,これらのコーナーケースをトレーニング中に取り入れることで,テスト中のコーナーケースの認識が向上することを示す。
論文 参考訳(メタデータ) (2023-05-23T15:20:31Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Space, Time, and Interaction: A Taxonomy of Corner Cases in Trajectory
Datasets for Automated Driving [9.119257760524782]
軌道データ分析は、高度に自動化された運転に欠かせない要素である。
高度に自動化された車両(HAV)は、そのタスクを確実に安全に実行できなければならない。
異常な軌跡が生じた場合、いわゆる軌道角の場合、人間の運転手は通常うまく対処できるが、HAVはすぐにトラブルに陥る。
論文 参考訳(メタデータ) (2022-10-17T09:27:45Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - An Application-Driven Conceptualization of Corner Cases for Perception
in Highly Automated Driving [21.67019631065338]
高度に自動化された運転において、コーナーケースのアプリケーション駆動ビューを提供する。
RADARとLiDARを追加することで、コーナーケースの既存のカメラフォーカスのシステム化を拡張します。
データ取得と処理のための模範的なツールチェーンについて説明する。
論文 参考訳(メタデータ) (2021-03-05T13:56:37Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - Towards Safer Self-Driving Through Great PAIN (Physically Adversarial
Intelligent Networks) [3.136861161060885]
我々は、自動運転車が積極的に対話する「Physically Adrial Intelligent Network」(PAIN)を紹介する。
我々は2つのエージェント、主人公と敵を訓練し、優先された体験リプレイを伴う二重深度Qネットワーク(DDDQN)を使用する。
訓練された主人公は、環境の不確実性に対してより弾力性を持ち、ケースの失敗を抑える傾向がある。
論文 参考訳(メタデータ) (2020-03-24T05:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。