論文の概要: Deep Learning Advances in Vision-Based Traffic Accident Anticipation: A Comprehensive Review of Methods,Datasets,and Future Directions
- arxiv url: http://arxiv.org/abs/2505.07611v1
- Date: Mon, 12 May 2025 14:34:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.433299
- Title: Deep Learning Advances in Vision-Based Traffic Accident Anticipation: A Comprehensive Review of Methods,Datasets,and Future Directions
- Title(参考訳): 視覚に基づく交通事故予測における深層学習の進展 : 方法,データセット,今後の方向性の総合的考察
- Authors: Yi Zhang, Wenye Zhou, Ruonan Lin, Xin Yang, Hao Zheng,
- Abstract要約: 視覚に基づく交通事故予測(Vision-TAA)は,ディープラーニング時代において有望なアプローチとして現れている。
本稿では, 事故予測のための教師付き, 教師なし, ハイブリッド学習モデルの適用に焦点をあてた147の最近の研究をレビューする。
- 参考スコア(独自算出の注目度): 10.3325464784641
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traffic accident prediction and detection are critical for enhancing road safety,and vision-based traffic accident anticipation (Vision-TAA) has emerged as a promising approach in the era of deep learning.This paper reviews 147 recent studies,focusing on the application of supervised,unsupervised,and hybrid deep learning models for accident prediction,alongside the use of real-world and synthetic datasets.Current methodologies are categorized into four key approaches: image and video feature-based prediction, spatiotemporal feature-based prediction, scene understanding,and multimodal data fusion.While these methods demonstrate significant potential,challenges such as data scarcity,limited generalization to complex scenarios,and real-time performance constraints remain prevalent. This review highlights opportunities for future research,including the integration of multimodal data fusion, self-supervised learning,and Transformer-based architectures to enhance prediction accuracy and scalability.By synthesizing existing advancements and identifying critical gaps, this paper provides a foundational reference for developing robust and adaptive Vision-TAA systems,contributing to road safety and traffic management.
- Abstract(参考訳): 交通事故の予測と検出は道路の安全性向上に不可欠であり、深層学習の時代にはビジョンベースの交通事故予知(Vision-TAA)が有望なアプローチとして現れており、近年の147の研究では、実世界の特徴に基づく予測、時空間的特徴に基づく予測、シーン理解、マルチモーダルデータ融合の4つの主要なアプローチに分類されているが、データ不足、複雑なシナリオへの限定的一般化、リアルタイムパフォーマンス制約といった大きな可能性を示している。
本稿では,マルチモーダルデータ融合,自己教師付き学習,および予測精度とスケーラビリティを高めるためのトランスフォーマーアーキテクチャの統合など,今後の研究の機会を強調し,既存の進歩を合成し,重要なギャップを特定することにより,道路安全と交通管理に寄与するロバストで適応的なビジョン-TAAシステムを開発するための基礎的基準を提供する。
関連論文リスト
- Domain-Enhanced Dual-Branch Model for Efficient and Interpretable Accident Anticipation [5.188064309021252]
本稿では,ダッシュカムビデオからの視覚情報と,事故報告から得られた構造化テキストデータを統合する事故予測フレームワークを提案する。
ベンチマークデータセットを用いた総合評価では、予測精度の向上、応答性の向上、計算オーバーヘッドの低減、アプローチの解釈可能性の向上が評価された。
論文 参考訳(メタデータ) (2025-07-17T03:16:28Z) - Trajectory Prediction in Dynamic Object Tracking: A Critical Study [2.836204494006322]
本研究は、動的物体追跡(DOT)および軌道予測(TP)手法における現在の進歩を詳細に分析する。
機能ベース、セグメンテーションベース、推定ベース、学習ベースなど、さまざまなアプローチをカバーしている。
この研究は、これらの技術が自動車や自動運転車、監視とセキュリティ、医療、産業自動化に与える影響を強調している。
論文 参考訳(メタデータ) (2025-06-24T06:10:01Z) - INSIGHT: Enhancing Autonomous Driving Safety through Vision-Language Models on Context-Aware Hazard Detection and Edge Case Evaluation [7.362380225654904]
INSIGHTは、危険検出とエッジケース評価を強化するために設計された階層型視覚言語モデル(VLM)フレームワークである。
本手法は,マルチモーダルデータ融合を用いて意味表現と視覚表現を統合し,運転シナリオの正確な解釈を可能にする。
BDD100Kデータセットの実験結果は、既存のモデルよりもハザード予測の正確性と正確性を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2025-02-01T01:43:53Z) - A Survey of World Models for Autonomous Driving [63.33363128964687]
自律運転の最近の進歩は、堅牢な世界モデリングの進歩によって推進されている。
本稿では、自律運転の世界モデルにおける最近の進歩を体系的にレビューする。
論文 参考訳(メタデータ) (2025-01-20T04:00:02Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - The Integration of Prediction and Planning in Deep Learning Automated Driving Systems: A Review [43.30610493968783]
我々は、最先端のディープラーニングベースの計画システムについてレビューし、どのように予測を統合するかに焦点を当てる。
異なる統合原則の意味、強み、限界について論じる。
論文 参考訳(メタデータ) (2023-08-10T17:53:03Z) - Machine Learning for Autonomous Vehicle's Trajectory Prediction: A
comprehensive survey, Challenges, and Future Research Directions [3.655021726150368]
AVの文脈における軌道予測に関する200以上の研究について検討した。
本総説では,いくつかの深層学習手法を総合的に評価する。
既存の文献の課題を特定し,潜在的研究の方向性を概説することにより,AV軌道予測領域における知識の進歩に大きく貢献する。
論文 参考訳(メタデータ) (2023-07-12T10:20:19Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Traffic Prediction using Artificial Intelligence: Review of Recent
Advances and Emerging Opportunities [2.5199066832791535]
本調査は,交通予測手法の概要を概観することを目的としている。
具体的には、人工知能(AI)に基づく交通予測手法の最近の進歩と新たな研究機会に焦点を当てる。
論文 参考訳(メタデータ) (2023-05-31T06:25:19Z) - Predictive Experience Replay for Continual Visual Control and
Forecasting [62.06183102362871]
視覚力学モデリングのための新しい連続学習手法を提案し,その視覚制御と予測における有効性について検討する。
まず,タスク固有のダイナミクスをガウスの混合で学習する混合世界モデルを提案し,その上で,破滅的な忘れを克服するための新たなトレーニング戦略を提案する。
我々のモデルは,DeepMind Control と Meta-World のベンチマークにおいて,既存の連続的学習アルゴリズムと視覚的RLアルゴリズムの単純な組み合わせよりも優れている。
論文 参考訳(メタデータ) (2023-03-12T05:08:03Z) - Congestion-aware Multi-agent Trajectory Prediction for Collision
Avoidance [110.63037190641414]
渋滞パターンを明示的に学習し、新しい「センス--学習--Reason--予測」フレームワークを考案する。
学習段階を2段階に分解することで、「学生」は「教師」から文脈的手がかりを学習し、衝突のない軌跡を生成する。
実験では,提案モデルが合成データセットにおいて衝突のない軌道予測を生成できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T02:42:33Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。