論文の概要: Exploring Event-driven Dynamic Context for Accident Scene Segmentation
- arxiv url: http://arxiv.org/abs/2112.05006v1
- Date: Thu, 9 Dec 2021 16:00:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 14:56:17.447316
- Title: Exploring Event-driven Dynamic Context for Accident Scene Segmentation
- Title(参考訳): 事故シーンセグメンテーションのためのイベント駆動動的コンテキストの探索
- Authors: Jiaming Zhang, Kailun Yang, Rainer Stiefelhagen
- Abstract要約: 交通事故の致命的な場面のほとんどは非常にダイナミックで、以前は見えなかった。
時間分解能の高いイベントベースデータから動的コンテキストを抽出することを提案する。
提案手法は,提案した事故データセットに対して+8.2%の性能向上を実現する。
- 参考スコア(独自算出の注目度): 33.20305129155542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The robustness of semantic segmentation on edge cases of traffic scene is a
vital factor for the safety of intelligent transportation. However, most of the
critical scenes of traffic accidents are extremely dynamic and previously
unseen, which seriously harm the performance of semantic segmentation methods.
In addition, the delay of the traditional camera during high-speed driving will
further reduce the contextual information in the time dimension. Therefore, we
propose to extract dynamic context from event-based data with a higher temporal
resolution to enhance static RGB images, even for those from traffic accidents
with motion blur, collisions, deformations, overturns, etc. Moreover, in order
to evaluate the segmentation performance in traffic accidents, we provide a
pixel-wise annotated accident dataset, namely DADA-seg, which contains a
variety of critical scenarios from traffic accidents. Our experiments indicate
that event-based data can provide complementary information to stabilize
semantic segmentation under adverse conditions by preserving fine-grained
motion of fast-moving foreground (crash objects) in accidents. Our approach
achieves +8.2% performance gain on the proposed accident dataset, exceeding
more than 20 state-of-the-art semantic segmentation methods. The proposal has
been demonstrated to be consistently effective for models learned on multiple
source databases including Cityscapes, KITTI-360, BDD, and ApolloScape.
- Abstract(参考訳): 交通シーンのエッジケースにおけるセマンティックセグメンテーションの堅牢性は、インテリジェント交通の安全性にとって重要な要素である。
しかし、交通事故の致命的な場面のほとんどは非常にダイナミックで、以前は見えず、セマンティックセグメンテーションの手法の性能を著しく損なう。
さらに、高速運転時の従来のカメラの遅延は、時間次元の文脈情報をさらに減少させる。
そこで本稿では, 交通事故, 衝突, 変形, 転倒などの場合であっても, 時間分解能の高いイベントベースデータから動的コンテキストを抽出し, 静的なRGB画像を改善することを提案する。
さらに,交通事故のセグメンテーション性能を評価するために,事故からのさまざまな重要なシナリオを含む,ピクセル単位のアノテートされた事故データセットdada-segを提供する。
本研究は,事故時の高速移動フォアグラウンド(crash objects)の細かな動きを保存し,有害な状況下での意味セグメンテーションを安定化するための補完的情報を提供できることを示す。
提案手法は,20以上の最先端セマンティクスセグメンテーション法を越え,提案する事故データセットで8.2%のパフォーマンス向上を達成している。
この提案は、Cityscapes、KITTI-360、BDD、ApolloScapeなど、複数のソースデータベースで学んだモデルに対して一貫して有効であることが示されている。
関連論文リスト
- Elastic Interaction Energy Loss for Traffic Image Segmentation [6.776747534002341]
微細で複雑な幾何学的対象は交通シーンにおいて最も難しいが重要な認識対象である。
本稿では,リアルタイム交通シーン理解における多クラスセグメンテーションのための簡易かつ効率的な幾何感応エネルギー損失関数をCNN(Conal Neural Network)に提案する。
都市景観データ(Cityscapes)、車線データTuSimple(TuSimple)、CULane(Culane)の3つの交通データから,その手法を定量的に定性的に分析した。
論文 参考訳(メタデータ) (2023-10-02T01:30:42Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [90.66285408745453]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において困難である。
ほとんどの最先端の手法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Augmenting Ego-Vehicle for Traffic Near-Miss and Accident Classification
Dataset using Manipulating Conditional Style Translation [0.3441021278275805]
事故が起こる前の事故と近距離事故には差はない。
我々の貢献は、事故の定義を再定義し、DADA-2000データセットにおける事故の不整合を再注釈することである。
提案手法は、条件付きスタイル変換(CST)と分離可能な3次元畳み込みニューラルネットワーク(S3D)の2つの異なるコンポーネントを統合する。
論文 参考訳(メタデータ) (2023-01-06T22:04:47Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - ProgressiveMotionSeg: Mutually Reinforced Framework for Event-Based
Motion Segmentation [101.19290845597918]
本稿では,動作推定 (ME) モジュールとイベントデノイング (ED) モジュールを相互に強化された方法で共同最適化する。
時間的相関をガイダンスとして、EDモジュールは各イベントが実活動イベントに属するという信頼度を算出し、MEモジュールに送信し、ノイズ抑制のための運動セグメンテーションのエネルギー関数を更新する。
論文 参考訳(メタデータ) (2022-03-22T13:40:26Z) - ISSAFE: Improving Semantic Segmentation in Accidents by Fusing
Event-based Data [34.36975697486129]
本稿では,事故シナリオにおけるセマンティックセグメンテーションに関する課題を,事故データセットDADA-segとともに提示する。
イベントベースのマルチモーダルセグメンテーションアーキテクチャISSAFEを提案する。
提案手法は, 提案した評価セットに対して+8.2% mIoUの性能向上を達成し, 10以上の最先端セグメンテーション法を克服する。
論文 参考訳(メタデータ) (2020-08-20T14:03:34Z) - Uncertainty-based Traffic Accident Anticipation with Spatio-Temporal
Relational Learning [30.59728753059457]
交通事故予測は、できるだけ早くダッシュカムビデオから事故を予測することを目的としている。
現在の決定論的ディープニューラルネットワークは、誤った予測では過信される可能性がある。
本稿では,関係時間学習を用いた不確実性に基づく事故予測モデルを提案する。
論文 参考訳(メタデータ) (2020-08-01T20:21:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。