論文の概要: CueCAn: Cue Driven Contextual Attention For Identifying Missing Traffic
Signs on Unconstrained Roads
- arxiv url: http://arxiv.org/abs/2303.02641v1
- Date: Sun, 5 Mar 2023 11:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:33:44.973542
- Title: CueCAn: Cue Driven Contextual Attention For Identifying Missing Traffic
Signs on Unconstrained Roads
- Title(参考訳): cuecan: 制約のない道路の交通標識を識別するためのコンテキスト的注意
- Authors: Varun Gupta, Anbumani Subramanian, C.V. Jawahar, Rohit Saluja
- Abstract要約: 道路の風景画像上で,失明した縁石の位置を推定し,歩行者にとって妥当な地域を推定するために,逸失物検出や非現存物検出が研究されている。
視覚障害者向けに,視覚障害者のための視覚障害者向けビデオデータセットを公開し,視覚障害者が視覚障害者の視線を視認できる複数種類の交通標識を提示する。
エンコーダを訓練して、信号機の存在を分類し、次にセグメントモデル全体をエンドツーエンドにトレーニングし、行方不明の信号機をローカライズする。
- 参考スコア(独自算出の注目度): 26.649617412538717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unconstrained Asian roads often involve poor infrastructure, affecting
overall road safety. Missing traffic signs are a regular part of such roads.
Missing or non-existing object detection has been studied for locating missing
curbs and estimating reasonable regions for pedestrians on road scene images.
Such methods involve analyzing task-specific single object cues. In this paper,
we present the first and most challenging video dataset for missing objects,
with multiple types of traffic signs for which the cues are visible without the
signs in the scenes. We refer to it as the Missing Traffic Signs Video Dataset
(MTSVD). MTSVD is challenging compared to the previous works in two aspects i)
The traffic signs are generally not present in the vicinity of their cues, ii)
The traffic signs cues are diverse and unique. Also, MTSVD is the first
publicly available missing object dataset. To train the models for identifying
missing signs, we complement our dataset with 10K traffic sign tracks, with 40
percent of the traffic signs having cues visible in the scenes. For identifying
missing signs, we propose the Cue-driven Contextual Attention units (CueCAn),
which we incorporate in our model encoder. We first train the encoder to
classify the presence of traffic sign cues and then train the entire
segmentation model end-to-end to localize missing traffic signs. Quantitative
and qualitative analysis shows that CueCAn significantly improves the
performance of base models.
- Abstract(参考訳): 制限のないアジアの道路はインフラが乏しく、道路全体の安全に影響を与えている。
交通標識の欠如は、こうした道路の通常部分である。
道路の風景画像上で,失明した縁石の位置を推定し,歩行者にとって妥当な地域を推定するために,逸失物検出や非現存物検出が研究されている。
このような手法には、タスク固有の単一オブジェクトキューの分析が含まれる。
本稿では,欠落している物体に対する最初の,かつ最も挑戦的なビデオデータセットについて述べる。
当社では the missing traffic signs video dataset (mtsvd) と呼んでいる。
MTSVDはこれまでの2つの側面から比較すると挑戦的だ
一 交通標識は、一般的にその手掛かりの近傍に存在しないこと。
二 交通標識の手がかりは多様で独特である。
また、mtsvdは初めて公開されたオブジェクトデータセットである。
行方不明の標識を特定するためのモデルをトレーニングするために、私たちはデータセットを10Kの交通標識トラックで補完します。
そこで我々は,モデルエンコーダに組み込んだcue-driven context attention unit (cuecan)を提案する。
まず、エンコーダをトレーニングして、信号機の存在を分類し、次にセグメントモデル全体をエンドツーエンドにトレーニングし、行方不明の信号機をローカライズします。
定量的および定性的な分析により、CueCAnはベースモデルの性能を大幅に改善することが示された。
関連論文リスト
- DAVE: Diverse Atomic Visual Elements Dataset with High Representation of Vulnerable Road Users in Complex and Unpredictable Environments [60.69159598130235]
Vulnerable Road Users (VRU) の高表現による認識手法の評価を目的とした新しいデータセット DAVE を提案する。
DAVEは16種類のアクターカテゴリー(動物、人間、車など)と16種類のアクションタイプ(カットイン、ジグザグ運動、Uターンなど、複雑で稀なケース)を手動でアノテートしたデータセットである。
実験の結果,既存の手法はDAVEで評価すると性能の劣化に悩まされ,将来的なビデオ認識研究のメリットを浮き彫りにしていることがわかった。
論文 参考訳(メタデータ) (2024-12-28T06:13:44Z) - Enhancing Vision-Language Models with Scene Graphs for Traffic Accident Understanding [45.7444555195196]
この研究は、交通シーンを特定の事故タイプに分類することに焦点を当てている。
交通シーンをグラフとして表現することで,車などの物体をノードとして表現し,その間の相対距離や方向をエッジとして表現することで,この問題に対処する。
論文 参考訳(メタデータ) (2024-07-08T13:15:11Z) - Cross-domain Few-shot In-context Learning for Enhancing Traffic Sign Recognition [49.20086587208214]
交通信号認識の強化を目的としたMLLMに基づくドメイン間数ショットインコンテキスト学習手法を提案する。
記述テキストを使用することで、テンプレートと実際の交通標識のドメイン間差を低減することができる。
提案手法は,大規模交通標識画像やラベルを必要とせず,単純かつ均一なテキスト表示のみを必要とする。
論文 参考訳(メタデータ) (2024-07-08T10:51:03Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Salient Sign Detection In Safe Autonomous Driving: AI Which Reasons Over
Full Visual Context [2.799896314754614]
運転シーンにおける様々な交通標識は、運転者の判断に不平等な影響を及ぼす。
そこで我々は,有能な標識の性能を重視した交通信号検出モデルを構築した。
本研究では,Salience-Sensitive Focal Lossで訓練したモデルが,無訓練で訓練したモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-01-14T01:47:09Z) - TrafficCAM: A Versatile Dataset for Traffic Flow Segmentation [9.744937939618161]
既存のトラフィックフローデータセットには2つの大きな制限がある。
クラス数は限られており、通常は1種類の車両に限られる。
我々は、TrafficCAMと呼ばれる新しいベンチマークトラフィックフロー画像データセットを導入する。
論文 参考訳(メタデータ) (2022-11-17T16:14:38Z) - METEOR: A Massive Dense & Heterogeneous Behavior Dataset for Autonomous
Driving [42.69638782267657]
本稿では、インドにおける非構造化シナリオにおけるトラフィックパターンをキャプチャする、新しい複雑なトラフィックデータセットMETEORを提案する。
METEORは1000分以上のビデオクリップと、エゴ車軌道を持つ200万以上の注釈付きフレームと、周囲の車両や交通機関のための1300万以上のバウンディングボックスで構成されている。
我々は,オブジェクト検出と行動予測アルゴリズムの性能を評価するために,新しいデータセットを用いた。
論文 参考訳(メタデータ) (2021-09-16T01:01:55Z) - Automated Object Behavioral Feature Extraction for Potential Risk
Analysis based on Video Sensor [6.291501119156943]
歩行者は道路、特に標識のない横断歩道で死亡や重傷を負う危険にさらされている。
本研究では,道路上に展開された映像センサから物体の行動特徴を効果的に抽出するシステムを提案する。
本研究は、スマートシティーに実用的なデータを提供するためのコネクテッドビデオセンサネットワークの可能性を示す。
論文 参考訳(メタデータ) (2021-07-08T01:11:31Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。