論文の概要: Hazard-Aware Traffic Scene Graph Generation
- arxiv url: http://arxiv.org/abs/2603.03584v1
- Date: Tue, 03 Mar 2026 23:29:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.12253
- Title: Hazard-Aware Traffic Scene Graph Generation
- Title(参考訳): 危険を意識した交通シーングラフ生成
- Authors: Yaoqi Huang, Julie Stephany Berrio, Mao Shan, Stewart Worrall,
- Abstract要約: 本稿では,交通危険と自走車との間の交通特化関係を捉える新しいタスクであるトラヒックシーングラフ生成手法を提案する。
本稿では,交通事故データと奥行き情報を用いて視覚的特徴や意味情報を補足する新しいフレームワークを提案する。
出力トラフィックシーングラフは、重症度をカラーコードし、エゴ車両に対する効果メカニズムと相対的な位置を通知することで、顕著な危険を強調できる直感的なガイドラインを提供する。
- 参考スコア(独自算出の注目度): 9.549979680242195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Maintaining situational awareness in complex driving scenarios is challenging. It requires continuously prioritizing attention among extensive scene entities and understanding how prominent hazards might affect the ego vehicle. While existing studies excel at detecting specific semantic categories and visually salient regions, they lack the ability to assess safety-relevance. Meanwhile, the generic spatial predicates either for foreground objects only or for all scene entities modeled by existing scene graphs are inadequate for driving scenarios. To bridge this gap, we introduce a novel task, Traffic Scene Graph Generation, which captures traffic-specific relations between prominent hazards and the ego vehicle. We propose a novel framework that explicitly uses traffic accident data and depth cues to supplement visual features and semantic information for reasoning. The output traffic scene graphs provide intuitive guidelines that stress prominent hazards by color-coding their severity and notating their effect mechanism and relative location to the ego vehicle. We create relational annotations on Cityscapes dataset and evaluate our model on 10 tasks from 5 perspectives. The results in comparative experiments and ablation studies demonstrate our capacity in ego-centric reasoning for hazard-aware traffic scene understanding.
- Abstract(参考訳): 複雑な運転シナリオにおける状況認識を維持することは難しい。
広範囲にわたるシーンの注目度を継続的に優先順位付けし、エゴの車両にどの程度の危険が及ぼすかを理解する必要がある。
既存の研究では、特定の意味圏や視覚的に健全な領域を検出する能力が優れているが、安全関連性を評価する能力は欠如している。
一方、ジェネリック空間述語は、前景オブジェクトのみに対して、または既存のシーングラフでモデル化されたすべてのシーンエンティティに対して、シナリオの駆動には不十分である。
このギャップを埋めるために,目立ったハザードとエゴ車との間の交通特有の関係をキャプチャする新しいタスクであるTraffic Scene Graph Generationを導入する。
本稿では,交通事故データと奥行き情報を用いて視覚的特徴や意味情報を補足する新しいフレームワークを提案する。
出力トラフィックシーングラフは、重症度をカラーコードし、エゴ車両に対する効果メカニズムと相対的な位置を通知することで、顕著な危険を強調できる直感的なガイドラインを提供する。
Cityscapesデータセット上にリレーショナルアノテーションを作成し、そのモデルを5つの視点から10のタスクで評価する。
比較実験およびアブレーション研究の結果は,危険に敏感な交通現場理解のためのエゴ中心推論の能力を示している。
関連論文リスト
- AVOID: The Adverse Visual Conditions Dataset with Obstacles for Driving Scene Understanding [48.97660297411286]
シミュレーション環境におけるリアルタイム障害物検出のための新しいデータセットであるAVOIDを紹介する。
AVOIDは、様々な天候と時間条件下で捕獲された各経路に沿って、予期せぬ道路障害物からなる。
各画像は、対応するセマンティックマップと深度マップ、生およびセマンティックLiDARデータ、およびウェイポイントと結合される。
論文 参考訳(メタデータ) (2025-12-29T05:34:26Z) - Semantic4Safety: Causal Insights from Zero-shot Street View Imagery Segmentation for Urban Road Safety [14.300819977717708]
ストリートビュー画像にゼロショットセマンティックセグメンテーションを適用して,11の解釈可能なストリートスケープインジケータを導出するフレームワークを提案する。
オースチンで発生した約3万件の事故記録を分析し,事故タイプ固有の因果パターンを明らかにする。
因果推論による予測モデリングをブリッジすることで、セマンティック4セーフティは標的とした介入とハイリスク回廊診断をサポートする。
論文 参考訳(メタデータ) (2025-10-17T08:45:28Z) - Enhancing Vision-Language Models with Scene Graphs for Traffic Accident Understanding [45.7444555195196]
この研究は、交通シーンを特定の事故タイプに分類することに焦点を当てている。
交通シーンをグラフとして表現することで,車などの物体をノードとして表現し,その間の相対距離や方向をエッジとして表現することで,この問題に対処する。
論文 参考訳(メタデータ) (2024-07-08T13:15:11Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Interpretable End-to-End Driving Model for Implicit Scene Understanding [3.4248756007722987]
暗黙的な高次元シーン特徴を抽出するエンド・ツー・エンドのインプリケート・インプリケート・ドライビング・シーン理解(II-DSU)モデルを提案する。
提案手法は,新しい最先端技術を実現し,運転に関連するよりリッチなシーン情報を具現化したシーン特徴を得ることができる。
論文 参考訳(メタデータ) (2023-08-02T14:43:08Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - Vision based Pedestrian Potential Risk Analysis based on Automated
Behavior Feature Extraction for Smart and Safe City [5.759189800028578]
このような交差点に設置した道路セキュリティカメラで収集した映像を用いて,歩行者の潜在的な危険度に関する包括的分析モデルを提案する。
提案システムは、車や歩行者を自動的に検知し、フレームによって軌跡を計算し、これらの物体間の潜在的危険シーンの可能性を左右する行動特徴を抽出する。
韓国大山市の横断歩道で適用し,実現可能性と適用性を評価した。
論文 参考訳(メタデータ) (2021-05-06T11:03:10Z) - RAIST: Learning Risk Aware Traffic Interactions via Spatio-Temporal
Graph Convolutional Networks [19.582873794287632]
道路車両を運転する上で重要な側面は、他の道路利用者と対話し、その意図を評価し、リスクを意識した戦術決定を行うことである。
本稿では,交通グラフに基づくエゴセントリックなビューのための新しいドライビングフレームワークを提案する。
我々は,リスクオブジェクト識別の課題を改善することにより,リスク認識表現を学習する。
論文 参考訳(メタデータ) (2020-11-17T15:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。