論文の概要: Salient Sign Detection In Safe Autonomous Driving: AI Which Reasons Over
Full Visual Context
- arxiv url: http://arxiv.org/abs/2301.05804v1
- Date: Sat, 14 Jan 2023 01:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 18:53:03.200378
- Title: Salient Sign Detection In Safe Autonomous Driving: AI Which Reasons Over
Full Visual Context
- Title(参考訳): 安全な自動運転におけるサルエントサイン検出:完全な視覚コンテキストを理由とするai
- Authors: Ross Greer, Akshay Gopalkrishnan, Nachiket Deo, Akshay Rangesh, Mohan
Trivedi
- Abstract要約: 運転シーンにおける様々な交通標識は、運転者の判断に不平等な影響を及ぼす。
そこで我々は,有能な標識の性能を重視した交通信号検出モデルを構築した。
本研究では,Salience-Sensitive Focal Lossで訓練したモデルが,無訓練で訓練したモデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 2.799896314754614
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Detecting road traffic signs and accurately determining how they can affect
the driver's future actions is a critical task for safe autonomous driving
systems. However, various traffic signs in a driving scene have an unequal
impact on the driver's decisions, making detecting the salient traffic signs a
more important task. Our research addresses this issue, constructing a traffic
sign detection model which emphasizes performance on salient signs, or signs
that influence the decisions of a driver. We define a traffic sign salience
property and use it to construct the LAVA Salient Signs Dataset, the first
traffic sign dataset that includes an annotated salience property. Next, we use
a custom salience loss function, Salience-Sensitive Focal Loss, to train a
Deformable DETR object detection model in order to emphasize stronger
performance on salient signs. Results show that a model trained with
Salience-Sensitive Focal Loss outperforms a model trained without, with regards
to recall of both salient signs and all signs combined. Further, the
performance margin on salient signs compared to all signs is largest for the
model trained with Salience-Sensitive Focal Loss.
- Abstract(参考訳): 道路交通標識を検知し、ドライバーの将来の行動にどのように影響するかを正確に決定することは、安全な自動運転システムにとって重要な課題である。
しかし、運転シーンにおける様々な交通標識は、運転者の判断に不等な影響を与えるため、より重要な作業となる。
本研究は,運転者の判断に影響を及ぼす標識に対する性能を強調するトラヒックサイン検出モデルを構築することで,この問題に対処した。
本研究では,トラヒックサインのサリエンス特性を定義し,アノテートされたサリエンスプロパティを含む最初のトラヒックサインデータセットであるlavas salient signsデータセットを構築する。
次に,salience-sensitive focal lossという独自のsalience loss関数を用いて変形可能なdetrオブジェクト検出モデルを訓練し,salient signの性能向上を強調する。
その結果,Salience-Sensitive Focal Loss で訓練したモデルは,Salient 記号とすべての記号の組み合わせのリコールに関して,無訓練のモデルよりも優れていた。
さらに、Salience-Sensitive Focal Lossで訓練されたモデルでは、すべての標識と比較して、サリアントサインのパフォーマンスマージンが最大である。
関連論文リスト
- DriveCoT: Integrating Chain-of-Thought Reasoning with End-to-End Driving [81.04174379726251]
本稿では,DriveCoTというエンド・ツー・エンドの運転データセットを総合的に収集する。
センサーデータ、制御決定、および推論プロセスを示すチェーン・オブ・シークレット・ラベルが含まれている。
我々は,私たちのデータセットに基づいてトレーニングされたDriveCoT-Agentと呼ばれるベースラインモデルを提案し,連鎖予測と最終決定を生成する。
論文 参考訳(メタデータ) (2024-03-25T17:59:01Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Adversary ML Resilience in Autonomous Driving Through Human Centered
Perception Mechanisms [0.0]
本稿では,3つの物理的攻撃(テープ,落書き,照明)に対する自律走行システムのレジリエンスについて検討する。
攻撃に対する堅牢性を構築するために、敵の訓練や移動学習のような防御技術が導入された。
その結果,道路標識分類の一般化性を向上させるために,形状訓練から得られる知識を付与することにより,伝達学習モデルが性能において重要な役割を担っていることが示された。
論文 参考訳(メタデータ) (2023-11-02T04:11:45Z) - Robust Traffic Light Detection Using Salience-Sensitive Loss:
Computational Framework and Evaluations [0.3061098887924466]
本稿では,運転者の将来の判断に影響を及ぼす信号として,信号機の定義に焦点をあてた交通信号検出モデルを提案する。
次に、このサリエンス特性を用いて、注釈付きサリエンス特性を持つ米国初のトラヒックライトデータセットであるLAVA Salient Lightsデータセットを構築する。
本研究では,Salience-Sensitive Focal Lossを用いたDeformable DETRオブジェクト検出トランスモデルを訓練し,サリアント信号の高機能化を図る。
論文 参考訳(メタデータ) (2023-05-08T07:22:15Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - CueCAn: Cue Driven Contextual Attention For Identifying Missing Traffic
Signs on Unconstrained Roads [26.649617412538717]
道路の風景画像上で,失明した縁石の位置を推定し,歩行者にとって妥当な地域を推定するために,逸失物検出や非現存物検出が研究されている。
視覚障害者向けに,視覚障害者のための視覚障害者向けビデオデータセットを公開し,視覚障害者が視覚障害者の視線を視認できる複数種類の交通標識を提示する。
エンコーダを訓練して、信号機の存在を分類し、次にセグメントモデル全体をエンドツーエンドにトレーニングし、行方不明の信号機をローカライズする。
論文 参考訳(メタデータ) (2023-03-05T11:06:20Z) - On Salience-Sensitive Sign Classification in Autonomous Vehicle Path
Planning: Experimental Explorations with a Novel Dataset [11.007092387379076]
本稿では,エゴ車両の目標に対して,サインが明確な意味を持つか否かを示すために,新しい特徴であるサインサリエンスを持つデータセットを提案する。
道路タイプ, 画像座標, 計画的な操作により, 刈り取った標識の畳み込みネットワークを用いて, 76%の精度でサインサリエンス特性を予測した。
論文 参考訳(メタデータ) (2021-12-02T02:45:30Z) - Automated Object Behavioral Feature Extraction for Potential Risk
Analysis based on Video Sensor [6.291501119156943]
歩行者は道路、特に標識のない横断歩道で死亡や重傷を負う危険にさらされている。
本研究では,道路上に展開された映像センサから物体の行動特徴を効果的に抽出するシステムを提案する。
本研究は、スマートシティーに実用的なデータを提供するためのコネクテッドビデオセンサネットワークの可能性を示す。
論文 参考訳(メタデータ) (2021-07-08T01:11:31Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。