論文の概要: BADAS: Context Aware Collision Prediction Using Real-World Dashcam Data
- arxiv url: http://arxiv.org/abs/2510.14876v1
- Date: Thu, 16 Oct 2025 16:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.956576
- Title: BADAS: Context Aware Collision Prediction Using Real-World Dashcam Data
- Title(参考訳): BADAS:リアルタイムダッシュカムデータを用いたコンテキスト認識衝突予測
- Authors: Roni Goldshmidt, Hamish Scott, Lorenzo Niccolini, Shizhan Zhu, Daniel Moura, Orly Zvitia,
- Abstract要約: BADASは、Nexarの現実のダッシュカム衝突データセットに基づいてトレーニングされた衝突予測モデルのファミリーである。
主要なベンチマークを再アノテートして、エゴの関与を特定し、コンセンサスアラートタイムラベルを追加し、ネガティブを合成します。
BADASはV-JEPA2のトレーニングを受けたエンドツーエンドを使用し、2つのバリエーションがある。
- 参考スコア(独自算出の注目度): 3.4891835983047077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing collision prediction methods often fail to distinguish between ego-vehicle threats and random accidents not involving the ego vehicle, leading to excessive false alerts in real-world deployment. We present BADAS, a family of collision prediction models trained on Nexar's real-world dashcam collision dataset -- the first benchmark designed explicitly for ego-centric evaluation. We re-annotate major benchmarks to identify ego involvement, add consensus alert-time labels, and synthesize negatives where needed, enabling fair AP/AUC and temporal evaluation. BADAS uses a V-JEPA2 backbone trained end-to-end and comes in two variants: BADAS-Open (trained on our 1.5k public videos) and BADAS1.0 (trained on 40k proprietary videos). Across DAD, DADA-2000, DoTA, and Nexar, BADAS achieves state-of-the-art AP/AUC and outperforms a forward-collision ADAS baseline while producing more realistic time-to-accident estimates. We release our BADAS-Open model weights and code, along with re-annotations of all evaluation datasets to promote ego-centric collision prediction research.
- Abstract(参考訳): 既存の衝突予測手法は、エゴ車両の脅威と、エゴ車両にかかわらないランダムな事故の区別に失敗し、現実の展開において過度に誤った警告を発生させる。
私たちは、Nexarの現実のダッシュカム衝突データセットに基づいてトレーニングされた衝突予測モデルのファミリーであるBADASを紹介します。
主要なベンチマークを再注釈し、エゴの関与を特定し、コンセンサスアラートタイムラベルを追加し、必要に応じてネガティブを合成し、公正なAP/AUCと時間的評価を可能にします。
BADASは、V-JEPA2で訓練されたエンドツーエンドのバックボーンを使用し、BADAS-Open(1.5kのパブリックビデオでトレーニング)とBADAS1.0(40kのプロプライエタリビデオでトレーニング)の2種類がある。
DAD, DADA-2000, DoTA, Nexar を通じて、BADAS は最先端の AP/AUC を達成し、より現実的な時間と事故の見積もりを生成しながら、前方衝突ADAS ベースラインを上回っている。
我々は、エゴ中心衝突予測研究を促進するために、すべての評価データセットの再注釈とともに、BADAS-Openモデルウェイトとコードをリリースする。
関連論文リスト
- KEPT: Knowledge-Enhanced Prediction of Trajectories from Consecutive Driving Frames with Vision-Language Models [19.625631486595505]
本稿では,知識に富んだ視覚言語フレームワークであるKEPTを紹介する。
連続するフロントビュー駆動フレームから直接エゴ軌道を予測する。
オープンループプロトコル間の最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-09-03T03:10:42Z) - Nexar Dashcam Collision Prediction Dataset and Challenge [2.048226951354646]
データセットは1500の注釈付きビデオクリップで構成され、それぞれ約40秒間、さまざまな現実世界のトラフィックシナリオをキャプチャする。
事故予測の研究を進めるために,このデータセット上での公開競争であるNexar Dashcam Collision Prediction Challengeを紹介した。
参加者は、入力ビデオから差し迫った衝突の可能性を予測する機械学習モデルを開発することを任務とする。
論文 参考訳(メタデータ) (2025-03-05T19:20:28Z) - Bench2Drive: Towards Multi-Ability Benchmarking of Closed-Loop End-To-End Autonomous Driving [59.705635382104454]
本稿では,E2E-ADシステムのマルチ能力をクローズドループで評価するための最初のベンチマークであるBench2Driveを紹介する。
我々は最先端のE2E-ADモデルを実装し、Bench2Driveで評価し、現状と今後の方向性について洞察を提供する。
論文 参考訳(メタデータ) (2024-06-06T09:12:30Z) - Edge-Assisted ML-Aided Uncertainty-Aware Vehicle Collision Avoidance at Urban Intersections [12.812518632907771]
都市横断路におけるプリエンプティブ衝突を検出する新しい枠組みを提案する。
5Gネットワークのマルチアクセスエッジコンピューティングプラットフォームを利用する。
論文 参考訳(メタデータ) (2024-04-22T18:45:40Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。