論文の概要: Elastic Interaction Energy Loss for Traffic Image Segmentation
- arxiv url: http://arxiv.org/abs/2310.01449v1
- Date: Mon, 2 Oct 2023 01:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 19:48:08.689844
- Title: Elastic Interaction Energy Loss for Traffic Image Segmentation
- Title(参考訳): 交通画像分割のための弾性相互作用エネルギー損失
- Authors: Yaxin Feng, Yuan Lan, Luchan Zhang and Yang Xiang
- Abstract要約: 微細で複雑な幾何学的対象は交通シーンにおいて最も難しいが重要な認識対象である。
本稿では,リアルタイム交通シーン理解における多クラスセグメンテーションのための簡易かつ効率的な幾何感応エネルギー損失関数をCNN(Conal Neural Network)に提案する。
都市景観データ(Cityscapes)、車線データTuSimple(TuSimple)、CULane(Culane)の3つの交通データから,その手法を定量的に定性的に分析した。
- 参考スコア(独自算出の注目度): 6.776747534002341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation is a pixel-level classification of images. The accuracy and fast
inference speed of image segmentation are crucial for autonomous driving
safety. Fine and complex geometric objects are the most difficult but important
recognition targets in traffic scene, such as pedestrians, traffic signs and
lanes. In this paper, a simple and efficient geometry-sensitive energy-based
loss function is proposed to Convolutional Neural Network (CNN) for multi-class
segmentation on real-time traffic scene understanding. To be specific, the
elastic interaction energy (EIE) between two boundaries will drive the
prediction moving toward the ground truth until completely overlap. The EIE
loss function is incorporated into CNN to enhance accuracy on fine-scale
structure segmentation. In particular, small or irregularly shaped objects can
be identified more accurately, and discontinuity issues on slender objects can
be improved. Our approach can be applied to different segmentation-based
problems, such as urban scene segmentation and lane detection. We
quantitatively and qualitatively analyze our method on three traffic datasets,
including urban scene data Cityscapes, lane data TuSimple and CULane. The
results show that our approach consistently improves performance, especially
when using real-time, lightweight networks as the backbones, which is more
suitable for autonomous driving.
- Abstract(参考訳): セグメンテーションは画像のピクセルレベルの分類である。
画像セグメンテーションの精度と高速推論速度は、自動運転の安全性に不可欠である。
微細で複雑な幾何学的対象は、歩行者、交通標識、車線などの交通シーンにおいて最も難しいが重要な認識対象である。
本稿では,リアルタイム交通シーン理解における多クラスセグメンテーションのための,簡易かつ効率的な幾何感性エネルギーベース損失関数を畳み込みニューラルネットワーク(CNN)に提案する。
具体的に言うと、2つの境界の間の弾性相互作用エネルギー(EIE)は、完全に重なるまで基底真理に向かう予測を導く。
EIE損失関数はCNNに組み込まれ、微細構造セグメンテーションの精度を高める。
特に、小または不規則な形状の物体をより正確に識別することができ、細い物体の連続性の問題を改善することができる。
本手法は,都市シーンのセグメンテーションや車線検出など,セグメンテーションに基づく様々な問題に適用できる。
本手法は都市景観データcityscapes, lane data tusimple, culaneの3つの交通データから定量的に定量的に解析する。
提案手法は,特に自律運転に適したリアルタイム軽量ネットワークをバックボーンとして使用する場合,一貫した性能向上を図っている。
関連論文リスト
- Fast-COS: A Fast One-Stage Object Detector Based on Reparameterized Attention Vision Transformer for Autonomous Driving [3.617580194719686]
本稿では、シーンを駆動するための新しい単一ステージオブジェクト検出フレームワークであるFast-COSを紹介する。
RAViTはImageNet-1Kデータセットで81.4%のTop-1精度を達成した。
主要なモデルの効率を上回り、最大75.9%のGPU推論速度とエッジデバイスでの1.38のスループットを提供する。
論文 参考訳(メタデータ) (2025-02-11T09:54:09Z) - NetFlowGen: Leveraging Generative Pre-training for Network Traffic Dynamics [72.95483148058378]
我々は,NetFlowレコードからのトラフィックデータのみを用いて,トラフィックダイナミクスをキャプチャする汎用機械学習モデルを事前学習することを提案する。
ネットワーク特徴表現の統一,未ラベルの大規模トラフィックデータ量からの学習,DDoS攻撃検出における下流タスクのテストといった課題に対処する。
論文 参考訳(メタデータ) (2024-12-30T00:47:49Z) - YOLO-TS: Real-Time Traffic Sign Detection with Enhanced Accuracy Using Optimized Receptive Fields and Anchor-Free Fusion [15.571409945909243]
本稿では,新しいリアルタイムかつ効率的な道路標識検出ネットワーク YOLO-TS を提案する。
このネットワークは,マルチスケール特徴写像の受容場を最適化することにより,性能を著しく向上させる。
我々の革新的な機能融合戦略は、アンカーフリー手法の柔軟性を活用し、精度と速度の両面で顕著な向上を実現している。
論文 参考訳(メタデータ) (2024-10-22T16:19:55Z) - CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - Smart Traffic Management of Vehicles using Faster R-CNN based Deep
Learning Method [0.0]
本研究では,より高速なR-CNNに基づく深層学習手法を車両のセグメンテーションに向けて検討する。
計算フレームワークは適応的背景モデリングのアイデアを使用する。
実験結果は,この計算フレームワークの優位性を示している。
論文 参考訳(メタデータ) (2023-11-03T05:30:13Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - Dynamic Spatial Sparsification for Efficient Vision Transformers and
Convolutional Neural Networks [88.77951448313486]
視覚データにおける空間空間空間性を利用したモデルアクセラレーションのための新しい手法を提案する。
本稿では,冗長トークンを具現化する動的トークンスペーシフィケーションフレームワークを提案する。
提案手法は,CNNや階層型視覚変換器などの階層モデルに拡張する。
論文 参考訳(メタデータ) (2022-07-04T17:00:51Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Learning dynamic and hierarchical traffic spatiotemporal features with
Transformer [4.506591024152763]
本稿では,空間時間グラフモデリングと長期交通予測のための新しいモデルであるTraffic Transformerを提案する。
Transformerは自然言語処理(NLP)で最も人気のあるフレームワークです。
注目重量行列を解析すれば 道路網の 影響力のある部分を見つけられる 交通網をよりよく学べる
論文 参考訳(メタデータ) (2021-04-12T02:29:58Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。