論文の概要: SignEye: Traffic Sign Interpretation from Vehicle First-Person View
- arxiv url: http://arxiv.org/abs/2411.11507v1
- Date: Mon, 18 Nov 2024 12:12:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:32:51.974838
- Title: SignEye: Traffic Sign Interpretation from Vehicle First-Person View
- Title(参考訳): SignEye: 自動車ファーストパーソンからの交通信号の解釈
- Authors: Chuang Yang, Xu Han, Tao Han, Yuejiao SU, Junyu Gao, Hongyuan Zhang, Yi Wang, Lap-Pui Chau,
- Abstract要約: 交通規制に従って車両の挙動の評価を可能にすることにより、自動運転システム(ADS)を支援する上で、交通標識が重要な役割を果たしている。
TSI-FPVと呼ばれる車両の1人称視点からの交通標識解釈という新しいタスクを導入する。
また,ADSにおける交通標識の役割を再検討するために,交通誘導アシスタント (TGA) のシナリオアプリケーションを開発した。
- 参考スコア(独自算出の注目度): 43.49612694851131
- License:
- Abstract: Traffic signs play a key role in assisting autonomous driving systems (ADS) by enabling the assessment of vehicle behavior in compliance with traffic regulations and providing navigation instructions. However, current works are limited to basic sign understanding without considering the egocentric vehicle's spatial position, which fails to support further regulation assessment and direction navigation. Following the above issues, we introduce a new task: traffic sign interpretation from the vehicle's first-person view, referred to as TSI-FPV. Meanwhile, we develop a traffic guidance assistant (TGA) scenario application to re-explore the role of traffic signs in ADS as a complement to popular autonomous technologies (such as obstacle perception). Notably, TGA is not a replacement for electronic map navigation; rather, TGA can be an automatic tool for updating it and complementing it in situations such as offline conditions or temporary sign adjustments. Lastly, a spatial and semantic logic-aware stepwise reasoning pipeline (SignEye) is constructed to achieve the TSI-FPV and TGA, and an application-specific dataset (Traffic-CN) is built. Experiments show that TSI-FPV and TGA are achievable via our SignEye trained on Traffic-CN. The results also demonstrate that the TGA can provide complementary information to ADS beyond existing popular autonomous technologies.
- Abstract(参考訳): 交通規制に従って車両の挙動を評価すること、およびナビゲーション指示を提供することにより、自動運転システム(ADS)を支援する上で、交通標識が重要な役割を担っている。
しかしながら、現在の作業は、エゴセントリックな車両の空間的位置を考慮せずに基本的な手話理解に限られており、さらなる規制評価と方向ナビゲーションをサポートしない。
上記の課題に従えば、車両の1人称視点からの交通標識解釈(TSI-FPV)という新しいタスクを導入する。
一方,交通誘導アシスタント(TGA)のシナリオアプリケーションを開発し,ADSにおける交通標識の役割を再検討する。
特に、TGAは電子地図ナビゲーションの代替ではなく、オフライン条件や一時的なサイン調整などの状況下でTGAを更新し補完するための自動ツールである。
最後に、TSI-FPVとTGAを達成するために、空間的および意味論的論理を考慮したステップワイド推論パイプライン(SignEye)を構築し、アプリケーション固有のデータセット(Traffic-CN)を構築する。
TSI-FPVとTGAは、Traffic-CNでトレーニングされたSignEyeを通じて実現可能であることを示す実験である。
結果は、TGAが既存の一般的な自律型技術を超えて、ADSに補完的な情報を提供できることも示している。
関連論文リスト
- Driving by the Rules: A Benchmark for Integrating Traffic Sign Regulations into Vectorized HD Map [15.57801519192153]
交通標識から運転規則を抽出するための新しいデータセットであるMapDRを紹介する。
MapDRには1万本以上の注釈付きビデオクリップがあり、交通標識規則と車線との複雑な相関関係を捉えている。
論文 参考訳(メタデータ) (2024-10-31T09:53:21Z) - A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - REDriver: Runtime Enforcement for Autonomous Vehicles [6.97499033700151]
本稿では,自律運転システムの実行時適用に対する汎用的かつモジュール的なアプローチであるREDriverを提案する。
ReDriverは、STLの定量的セマンティクスに基づいて、ADSの計画された軌道を監視する。
仕様に違反する可能性がある場合に、勾配駆動のアルゴリズムを使って軌道を修復する。
論文 参考訳(メタデータ) (2024-01-04T13:08:38Z) - Traffic Sign Interpretation in Real Road Scene [18.961971178824715]
本稿では,グローバルな意味的相互関連交通標識を自然言語に解釈することを目的とした交通標識解釈(TSI)タスクを提案する。
このデータセットは実際の道路シーンの画像で構成されており、道路や中国の都市部からドライバーの視点から捉えられている。
TSI-CNの実験は、TSIタスクが達成可能であり、TSIアーキテクチャは、シーンからのトラフィックサインをうまく解釈できることを示した。
論文 参考訳(メタデータ) (2023-11-17T02:30:36Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Autonomous Navigation through intersections with Graph
ConvolutionalNetworks and Conditional Imitation Learning for Self-driving
Cars [10.080958939027363]
自動運転では、信号のない交差点を通るナビゲーションは難しい作業だ。
ナビゲーションポリシー学習のための新しい分岐ネットワークG-CILを提案する。
エンドツーエンドのトレーニング可能なニューラルネットワークは、より高い成功率と短いナビゲーション時間でベースラインを上回っています。
論文 参考訳(メタデータ) (2021-02-01T07:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。