論文の概要: Elastic Interaction Energy-Informed Real-Time Traffic Scene Perception
- arxiv url: http://arxiv.org/abs/2310.01449v2
- Date: Wed, 3 Apr 2024 15:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 23:08:03.593448
- Title: Elastic Interaction Energy-Informed Real-Time Traffic Scene Perception
- Title(参考訳): 弾性相互作用エネルギーによるリアルタイム交通シーンの知覚
- Authors: Yaxin Feng, Yuan Lan, Luchan Zhang, Guoqing Liu, Yang Xiang,
- Abstract要約: EIEGSegという名前のトポロジ対応エネルギー損失関数に基づくネットワークトレーニング戦略を提案する。
EIEGSegは、リアルタイムの交通シーン認識におけるマルチクラスセグメンテーションのために設計されている。
以上の結果から,EIEGSegは,特にリアルタイム軽量ネットワークにおいて,性能を継続的に向上することを示す。
- 参考スコア(独自算出の注目度): 8.429178814528617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Urban segmentation and lane detection are two important tasks for traffic scene perception. Accuracy and fast inference speed of visual perception are crucial for autonomous driving safety. Fine and complex geometric objects are the most challenging but important recognition targets in traffic scene, such as pedestrians, traffic signs and lanes. In this paper, a simple and efficient topology-aware energy loss function-based network training strategy named EIEGSeg is proposed. EIEGSeg is designed for multi-class segmentation on real-time traffic scene perception. To be specific, the convolutional neural network (CNN) extracts image features and produces multiple outputs, and the elastic interaction energy loss function (EIEL) drives the predictions moving toward the ground truth until they are completely overlapped. Our strategy performs well especially on fine-scale structure, \textit{i.e.} small or irregularly shaped objects can be identified more accurately, and discontinuity issues on slender objects can be improved. We quantitatively and qualitatively analyze our method on three traffic datasets, including urban scene segmentation data Cityscapes and lane detection data TuSimple and CULane. Our results demonstrate that EIEGSeg consistently improves the performance, especially on real-time, lightweight networks that are better suited for autonomous driving.
- Abstract(参考訳): 都市セグメンテーションと車線検出は交通シーンの認識にとって重要な2つの課題である。
視覚知覚の精度と高速な推論速度は、自動運転の安全性に不可欠である。
微細で複雑な幾何学的対象は、歩行者、交通標識、車線などの交通シーンにおいて最も困難だが重要な認識対象である。
本稿では,EIEGSeg という,簡易かつ効率的なトポロジ対応エネルギー損失関数に基づくネットワークトレーニング手法を提案する。
EIEGSegは、リアルタイムの交通シーン認識におけるマルチクラスセグメンテーションのために設計されている。
具体的には、畳み込みニューラルネットワーク(CNN)は、画像の特徴を抽出して複数の出力を生成し、弾性相互作用エネルギー損失関数(EIEL)は、完全に重複するまで、基底真実に向かって移動する予測を駆動する。
我々の戦略は特に微細な構造においてうまく機能し、小型または不規則な形状の物体をより正確に識別でき、細い物体の連続性の問題を改善することができる。
都市景観のセグメンテーションデータであるCityscapesと、車線検出データTuSimpleとCULaneを含む3つの交通データを用いて、定量的に定性的に手法を解析した。
EIEGSegは、特に自律運転に適したリアルタイム軽量ネットワークにおいて、一貫して性能を改善していることを示す。
関連論文リスト
- CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - Smart Traffic Management of Vehicles using Faster R-CNN based Deep
Learning Method [0.0]
本研究では,より高速なR-CNNに基づく深層学習手法を車両のセグメンテーションに向けて検討する。
計算フレームワークは適応的背景モデリングのアイデアを使用する。
実験結果は,この計算フレームワークの優位性を示している。
論文 参考訳(メタデータ) (2023-11-03T05:30:13Z) - Enhancing Spatiotemporal Traffic Prediction through Urban Human Activity
Analysis [6.8775337739726226]
本稿では,グラフ畳み込み深層学習アルゴリズムに基づく交通予測手法を提案する。
本研究では,宮内庁旅行調査の人的活動頻度データを活用し,活動と交通パターンの因果関係の推測能力を高める。
論文 参考訳(メタデータ) (2023-08-20T14:31:55Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - Dynamic Spatial Sparsification for Efficient Vision Transformers and
Convolutional Neural Networks [88.77951448313486]
視覚データにおける空間空間空間性を利用したモデルアクセラレーションのための新しい手法を提案する。
本稿では,冗長トークンを具現化する動的トークンスペーシフィケーションフレームワークを提案する。
提案手法は,CNNや階層型視覚変換器などの階層モデルに拡張する。
論文 参考訳(メタデータ) (2022-07-04T17:00:51Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Learning dynamic and hierarchical traffic spatiotemporal features with
Transformer [4.506591024152763]
本稿では,空間時間グラフモデリングと長期交通予測のための新しいモデルであるTraffic Transformerを提案する。
Transformerは自然言語処理(NLP)で最も人気のあるフレームワークです。
注目重量行列を解析すれば 道路網の 影響力のある部分を見つけられる 交通網をよりよく学べる
論文 参考訳(メタデータ) (2021-04-12T02:29:58Z) - LiveMap: Real-Time Dynamic Map in Automotive Edge Computing [14.195521569220448]
LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
論文 参考訳(メタデータ) (2020-12-16T15:00:49Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。