論文の概要: LightFormer: An End-to-End Model for Intersection Right-of-Way
Recognition Using Traffic Light Signals and an Attention Mechanism
- arxiv url: http://arxiv.org/abs/2307.07196v1
- Date: Fri, 14 Jul 2023 07:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-17 14:42:45.112224
- Title: LightFormer: An End-to-End Model for Intersection Right-of-Way
Recognition Using Traffic Light Signals and an Attention Mechanism
- Title(参考訳): LightFormer:交通信号とアテンション機構を用いた道路右端認識のためのエンド・ツー・エンドモデル
- Authors: Zhenxing Ming, Julie Stephany Berrio, Mao Shan, Eduardo Nebot and
Stewart Worrall
- Abstract要約: 本稿では,LightFormer と呼ばれる新しいエンド・ツー・エンドの方法認識モデルを提案する。
複雑な都市交差点で利用可能な運転方向の通行権を生成する。
- 参考スコア(独自算出の注目度): 7.489722641968593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For smart vehicles driving through signalised intersections, it is crucial to
determine whether the vehicle has right of way given the state of the traffic
lights. To address this issue, camera based sensors can be used to determine
whether the vehicle has permission to proceed straight, turn left or turn
right. This paper proposes a novel end to end intersection right of way
recognition model called LightFormer to generate right of way status for
available driving directions in complex urban intersections. The model includes
a spatial temporal inner structure with an attention mechanism, which
incorporates features from past image to contribute to the classification of
the current frame right of way status. In addition, a modified, multi weight
arcface loss is introduced to enhance the model classification performance.
Finally, the proposed LightFormer is trained and tested on two public traffic
light datasets with manually augmented labels to demonstrate its effectiveness.
- Abstract(参考訳): 信号交差点を走行するスマートカーにとって、信号機の状態から車両が正しいかどうかを判断することが不可欠である。
この問題に対処するために、カメラベースのセンサーを使用して、車両がまっすぐ進むか、左に曲がるか、右に曲がるかを判断することができる。
本稿では,複雑な都市交差点において利用可能な運転経路に対して,経路認識モデルであるlightformerの終端交差点を新たに生成する手法を提案する。
このモデルは、過去の画像の特徴を取り入れた注意機構を備えた空間的時間的内部構造を含み、現在のフレームの状態の分類に寄与する。
また, モデル分類性能を向上させるために, 改良された多重アークフェース損失を導入した。
最後に、提案するlightformerは、手動でラベルを付加した2つの公開トラフィックライトデータセットでトレーニングとテストを行い、その効果を実証する。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - Semantic Map Learning of Traffic Light to Lane Assignment based on
Motion Data [12.853720506838043]
自動運転車は通常、車線への信号の割り当てに関する情報を含むHigh Definition (HD)マップに依存している。
これらの問題を解決するために,交通信号の状態と対応する車両交通の動作パターンから課題を導出する。
Lyft Level 5データセット用の公開APIによって、研究者は独自のアプローチを開発し、評価することができます。
論文 参考訳(メタデータ) (2023-09-26T09:42:21Z) - Robust Detection, Association, and Localization of Vehicle Lights: A
Context-Based Cascaded CNN Approach and Evaluations [0.0]
本稿では、上流車両検出と可視光中心の近似を付与した車両光の検出方法を提案する。
地上の真理角からの平均距離誤差は4.77ピクセルであり、車両の光の約16.33%である。
我々は,このモデルをパイプラインに統合して,完全形状の車両光検出ネットワークを構築することを提案する。
論文 参考訳(メタデータ) (2023-07-27T01:20:47Z) - Patterns of Vehicle Lights: Addressing Complexities in Curation and
Annotation of Camera-Based Vehicle Light Datasets and Metrics [0.0]
本稿では、コンピュータビジョンにおける車両光の表現とその自律運転分野における様々なタスクへの応用について考察する。
車両の光検出から恩恵を受けることができる自動運転における3つの重要なタスクが特定される。
データ駆動モデルのトレーニングのための大規模なデータセットの収集と注釈付けの課題にも対処する。
論文 参考訳(メタデータ) (2023-07-26T21:48:14Z) - Robust Traffic Light Detection Using Salience-Sensitive Loss:
Computational Framework and Evaluations [0.3061098887924466]
本稿では,運転者の将来の判断に影響を及ぼす信号として,信号機の定義に焦点をあてた交通信号検出モデルを提案する。
次に、このサリエンス特性を用いて、注釈付きサリエンス特性を持つ米国初のトラヒックライトデータセットであるLAVA Salient Lightsデータセットを構築する。
本研究では,Salience-Sensitive Focal Lossを用いたDeformable DETRオブジェクト検出トランスモデルを訓練し,サリアント信号の高機能化を図る。
論文 参考訳(メタデータ) (2023-05-08T07:22:15Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。