論文の概要: SAVeD: A First-Person Social Media Video Dataset for ADAS-equipped vehicle Near-Miss and Crash Event Analyses
- arxiv url: http://arxiv.org/abs/2512.17724v1
- Date: Fri, 19 Dec 2025 15:58:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.472809
- Title: SAVeD: A First-Person Social Media Video Dataset for ADAS-equipped vehicle Near-Miss and Crash Event Analyses
- Title(参考訳): SAVeD:ADAS搭載車載ソーシャルメディアビデオデータセットNear-MissとCrash Event Analyses
- Authors: Shaoyan Zhai, Mohamed Abdel-Aty, Chenzhu Wang, Rodrigo Vena Garcia,
- Abstract要約: 本稿では,ソーシャルメディアコンテンツから収集した大規模ビデオデータセットであるSAVeDを紹介する。
SAVEDは2,119人のファースト・パーソン・ビデオ、様々な場所でのADAS車両の運用、照明条件、気象シナリオを撮影する。
このデータセットには、衝突、回避操作、解脱のためのビデオフレームレベルのアノテーションが含まれており、知覚と意思決定の失敗の両方を分析することができる。
- 参考スコア(独自算出の注目度): 0.7874708385247353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advancement of safety-critical research in driving behavior in ADAS-equipped vehicles require real-world datasets that not only include diverse traffic scenarios but also capture high-risk edge cases such as near-miss events and system failures. However, existing datasets are largely limited to either simulated environments or human-driven vehicle data, lacking authentic ADAS (Advanced Driver Assistance System) vehicle behavior under risk conditions. To address this gap, this paper introduces SAVeD, a large-scale video dataset curated from publicly available social media content, explicitly focused on ADAS vehicle-related crashes, near-miss incidents, and disengagements. SAVeD features 2,119 first-person videos, capturing ADAS vehicle operations in diverse locations, lighting conditions, and weather scenarios. The dataset includes video frame-level annotations for collisions, evasive maneuvers, and disengagements, enabling analysis of both perception and decision-making failures. We demonstrate SAVeD's utility through multiple analyses and contributions: (1) We propose a novel framework integrating semantic segmentation and monocular depth estimation to compute real-time Time-to-Collision (TTC) for dynamic objects. (2) We utilize the Generalized Extreme Value (GEV) distribution to model and quantify the extreme risk in crash and near-miss events across different roadway types. (3) We establish benchmarks for state-of-the-art VLLMs (VideoLLaMA2 and InternVL2.5 HiCo R16), showing that SAVeD's detailed annotations significantly enhance model performance through domain adaptation in complex near-miss scenarios.
- Abstract(参考訳): ADAS搭載車両の運転行動に関する安全クリティカルな研究の進展は、多様な交通シナリオを含むだけでなく、ニアミスイベントやシステム障害などのリスクの高いエッジケースをキャプチャする現実世界のデータセットを必要とする。
しかしながら、既存のデータセットは、シミュレーション環境または人間駆動の車両データに大きく制限されており、リスク条件下でのADAS(Advanced Driver Assistance System)車両の挙動を欠いている。
このギャップに対処するために、本稿では、ADAS車両関連事故、ニアミス事故、および解禁に焦点を当てた、公開ソーシャルメディアコンテンツからキュレートされた大規模なビデオデータセットであるSAVeDを紹介する。
SAVeDには2,119人の個人ビデオがあり、様々な場所でのADAS車両の運用、照明条件、気象シナリオを捉えている。
このデータセットには、衝突、回避操作、解脱のためのビデオフレームレベルのアノテーションが含まれており、知覚と意思決定の失敗の両方を分析することができる。
1) 動的オブジェクトに対するリアルタイム時間対衝突(TTC)の計算に意味的セグメンテーションと単眼深度推定を統合する新しいフレームワークを提案する。
2) 一般極値分布(GEV)を用いて,異なる道路タイプにわたる事故・近距離事故の極端なリスクをモデル化し,定量化する。
(3) 現状のVLLM(VideoLLaMA2とInternVL2.5 HiCo R16)のベンチマークを作成し,SAVeDの詳細なアノテーションにより,複雑なニアミスシナリオにおけるドメイン適応によるモデル性能が著しく向上することを示した。
関連論文リスト
- From Narratives to Probabilistic Reasoning: Predicting and Interpreting Drivers' Hazardous Actions in Crashes Using Large Language Model [3.3457493284891338]
2車線の事故は、道路事故の約70%を占める。
Driver Hazardous Action (DHA)データは、一貫性のない、労働集約的な手動コーディングプラクティスによって制限される。
本稿では,微調整された大規模言語モデルを利用して,テキストによるクラッシュ物語からDHAを自動的に推測する,革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-14T21:35:47Z) - CoReVLA: A Dual-Stage End-to-End Autonomous Driving Framework for Long-Tail Scenarios via Collect-and-Refine [73.74077186298523]
CoReVLAは、自動運転のための継続的学習フレームワークである。
データコレクションとビヘイビアリファインメントの2段階プロセスを通じて、ロングテールシナリオのパフォーマンスを改善する。
CoReVLAは72.18のドライビングスコア(DS)と50%の成功率(SR)を達成し、7.96DSの最先端手法と15%SRの長期的安全クリティカルシナリオで性能を向上する。
論文 参考訳(メタデータ) (2025-09-19T13:25:56Z) - CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - AccidentBlip: Agent of Accident Warning based on MA-former [24.81148840857782]
AccidentBlipは視覚のみのフレームワークで、ビデオの各フレームを処理するために自設計のMotion Accident Transformer(MA-former)を使用している。
AccidentBlipは、DeepAccidentデータセット上の事故検出と予測タスクの両方のパフォーマンスを達成する。
また、V2VおよびV2Xシナリオにおける現在のSOTAメソッドよりも優れており、複雑な現実世界環境を理解するのに優れた能力を示している。
論文 参考訳(メタデータ) (2024-04-18T12:54:25Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Augmenting Ego-Vehicle for Traffic Near-Miss and Accident Classification
Dataset using Manipulating Conditional Style Translation [0.3441021278275805]
事故が起こる前の事故と近距離事故には差はない。
我々の貢献は、事故の定義を再定義し、DADA-2000データセットにおける事故の不整合を再注釈することである。
提案手法は、条件付きスタイル変換(CST)と分離可能な3次元畳み込みニューラルネットワーク(S3D)の2つの異なるコンポーネントを統合する。
論文 参考訳(メタデータ) (2023-01-06T22:04:47Z) - An Attention-guided Multistream Feature Fusion Network for Localization
of Risky Objects in Driving Videos [10.674638266121574]
本稿では,ダッシュカムビデオから危険な交通エージェントをローカライズする,注意誘導型マルチストリーム機能融合ネットワーク(AM-Net)を提案する。
2つのGRU(Gated Recurrent Unit)ネットワークは、危険な交通エージェントを識別するために、連続するビデオフレームから抽出されたオブジェクトバウンディングボックスと光フロー特徴を用いている。
AM-Netは2つの機能ストリームを使用して、ビデオ内のトラフィックエージェントの危険度スコアを予測する。
論文 参考訳(メタデータ) (2022-09-16T13:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。