論文の概要: Scene-Graph Augmented Data-Driven Risk Assessment of Autonomous Vehicle
Decisions
- arxiv url: http://arxiv.org/abs/2009.06435v1
- Date: Mon, 31 Aug 2020 07:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 07:17:57.319676
- Title: Scene-Graph Augmented Data-Driven Risk Assessment of Autonomous Vehicle
Decisions
- Title(参考訳): シーングラフによる自動運転車事故のリスク評価
- Authors: Shih-Yuan Yu, Arnav V. Malawade, Deepan Muthirayan, Pramod P.
Khargonekar, Mohammad A. Al Faruque
- Abstract要約: 本研究では,シーングラフを中間表現として利用する新しいデータ駆動手法を提案する。
我々のアプローチには、マルチリレーショングラフ畳み込みネットワーク、ロングショート長期記憶ネットワーク、そして運転操作の主観的リスクをモデル化するための注意層が含まれる。
提案手法は,大型(96.4%対91.2%)および小型(91.8%対71.2%)の最先端アプローチよりも高い分類精度が得られることを示す。
また、実世界のデータセットでテストすると、合成データセットでトレーニングされたモデルの平均精度が87.8%に達することを示す。
- 参考スコア(独自算出の注目度): 1.4086978333609153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite impressive advancements in Autonomous Driving Systems (ADS),
navigation in complex road conditions remains a challenging problem. There is
considerable evidence that evaluating the subjective risk level of various
decisions can improve ADS' safety in both normal and complex driving scenarios.
However, existing deep learning-based methods often fail to model the
relationships between traffic participants and can suffer when faced with
complex real-world scenarios. Besides, these methods lack transferability and
explainability. To address these limitations, we propose a novel data-driven
approach that uses scene-graphs as intermediate representations. Our approach
includes a Multi-Relation Graph Convolution Network, a Long-Short Term Memory
Network, and attention layers for modeling the subjective risk of driving
maneuvers. To train our model, we formulate this task as a supervised scene
classification problem. We consider a typical use case to demonstrate our
model's capabilities: lane changes. We show that our approach achieves a higher
classification accuracy than the state-of-the-art approach on both large (96.4%
vs. 91.2%) and small (91.8% vs. 71.2%) synthesized datasets, also illustrating
that our approach can learn effectively even from smaller datasets. We also
show that our model trained on a synthesized dataset achieves an average
accuracy of 87.8% when tested on a real-world dataset compared to the 70.3%
accuracy achieved by the state-of-the-art model trained on the same synthesized
dataset, showing that our approach can more effectively transfer knowledge.
Finally, we demonstrate that the use of spatial and temporal attention layers
improves our model's performance by 2.7% and 0.7% respectively, and increases
its explainability.
- Abstract(参考訳): 自律運転システム(ADS)の著しい進歩にもかかわらず、複雑な道路条件でのナビゲーションは難しい問題である。
様々な意思決定の主観的リスクレベルを評価することで、通常の運転シナリオと複雑な運転シナリオの両方において、ADSの安全性が向上する、というかなりの証拠がある。
しかし、既存のディープラーニングベースの手法は、しばしば交通関係者間の関係をモデル化できず、複雑な現実のシナリオに直面したときに苦しむことがある。
さらに、これらの方法は伝達性や説明性に欠ける。
これらの制約に対処するために,シーングラフを中間表現として用いる新しいデータ駆動アプローチを提案する。
我々のアプローチには、マルチリレーショングラフ畳み込みネットワーク、ロングショート長期記憶ネットワーク、そして運転操作の主観的リスクをモデル化するための注意層が含まれる。
モデルをトレーニングするために、このタスクを教師付きシーン分類問題として定式化する。
私たちは、モデルの能力を示す典型的なユースケースを考えています。
本手法は,大規模 (96.4% 対 91.2%) と小型 (91.8% 対 71.2%) の合成データセットにおいて,最先端のアプローチよりも高い分類精度を達成し,より小さなデータセットからでも効果的に学習できることを示す。
また,同じ合成データセットでトレーニングされた最先端モデルが達成した70.3%の精度と比較して,実世界のデータセットでテストした場合の平均87.8%の精度が得られることを示した。
最後に,空間的および時間的注意層の利用により,各モデルの性能が2.7%,0.7%向上し,その説明性が向上することを示す。
関連論文リスト
- Potential Field as Scene Affordance for Behavior Change-Based Visual Risk Object Identification [4.896236083290351]
行動変化に基づく視覚的リスクオブジェクト識別(Visual-ROI)について検討する。
既存の手法はしばしば空間的精度と時間的一貫性に重大な制限を呈する。
本稿では,これらの課題を克服するために,バードアイビュー表現を用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:17:50Z) - TrACT: A Training Dynamics Aware Contrastive Learning Framework for Long-tail Trajectory Prediction [7.3292387742640415]
本稿では,よりリッチなトレーニングダイナミックス情報を,原型的コントラスト学習フレームワークに組み込むことを提案する。
我々は,2つの大規模自然主義データセットを用いたアプローチの実証評価を行った。
論文 参考訳(メタデータ) (2024-04-18T23:12:46Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - Federated Learning Framework Coping with Hierarchical Heterogeneity in
Cooperative ITS [10.087704332539161]
階層的不均一性(H2-Fed)に対処する連合学習フレームワークを提案する。
このフレームワークは、ユーザーデータのプライバシに影響を与えることなく、車両ネットワーク内の接続された公共交通機関のデータを利用する。
論文 参考訳(メタデータ) (2022-04-01T05:33:54Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Adversarial Feature Stacking for Accurate and Robust Predictions [4.208059346198116]
Adversarial Feature Stacking (AFS)モデルは、さまざまなレベルの堅牢性と精度を持つ機能を共同で活用することができる。
CIFAR-10およびCIFAR-100データセット上でのAFSモデルの評価を行った。
論文 参考訳(メタデータ) (2021-03-24T12:01:24Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。