論文の概要: Trustworthy Automated Driving through Qualitative Scene Understanding and Explanations
- arxiv url: http://arxiv.org/abs/2403.09668v1
- Date: Mon, 29 Jan 2024 11:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 08:06:28.787367
- Title: Trustworthy Automated Driving through Qualitative Scene Understanding and Explanations
- Title(参考訳): 質的なシーン理解と説明を通しての信頼性の高い自動運転
- Authors: Nassim Belmecheri, Arnaud Gotlieb, Nadjib Lazaar, Helge Spieker,
- Abstract要約: 本稿では,都市移動におけるシーン理解のための統一的シンボルと定性表現である定性説明可能グラフ(QXG)を提案する。
QXGは、センサーデータと機械学習モデルを使用して、自動車両環境の解釈を可能にする。
リアルタイムでインクリメンタルに構築することができ、車内説明やリアルタイム意思決定のための汎用的なツールになります。
- 参考スコア(独自算出の注目度): 15.836913530330786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Qualitative Explainable Graph (QXG): a unified symbolic and qualitative representation for scene understanding in urban mobility. QXG enables the interpretation of an automated vehicle's environment using sensor data and machine learning models. It leverages spatio-temporal graphs and qualitative constraints to extract scene semantics from raw sensor inputs, such as LiDAR and camera data, offering an intelligible scene model. Crucially, QXG can be incrementally constructed in real-time, making it a versatile tool for in-vehicle explanations and real-time decision-making across various sensor types. Our research showcases the transformative potential of QXG, particularly in the context of automated driving, where it elucidates decision rationales by linking the graph with vehicle actions. These explanations serve diverse purposes, from informing passengers and alerting vulnerable road users (VRUs) to enabling post-analysis of prior behaviours.
- Abstract(参考訳): 本稿では,都市移動におけるシーン理解のための統一的シンボルと定性表現である定性説明可能グラフ(QXG)を提案する。
QXGは、センサーデータと機械学習モデルを使用して、自動車両環境の解釈を可能にする。
時空間グラフと定性的制約を活用して、LiDARやカメラデータなどの生センサ入力からシーンセマンティクスを抽出し、理解不能なシーンモデルを提供する。
重要なことは、QXGはリアルタイムでインクリメンタルに構築することができ、様々なセンサータイプにわたる車内説明やリアルタイム意思決定のための汎用的なツールとなる。
我々の研究は、QXGの変換可能性、特に自動走行の文脈において、グラフと車両の動作をリンクすることで意思決定の合理性を解明することを示した。
これらの説明は、乗客に通知したり、脆弱な道路利用者(VRU)に警告したり、以前の行動の分析後の分析を可能にするなど、様々な目的に役立ちます。
関連論文リスト
- Automatic Odometry-Less OpenDRIVE Generation From Sparse Point Clouds [1.3351610617039973]
高解像度道路表現は、自動運転機能の成功の鍵となる要素である。
本稿では,ポイントクラウド情報のみに基づいて,現実的な道路表現を生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T08:26:24Z) - Towards Trustworthy Automated Driving through Qualitative Scene Understanding and Explanations [15.836913530330786]
質的説明可能なグラフ(QXG)は、都市移動におけるシーン理解のための統一的な象徴的、質的表現である。
QXGはリアルタイムで構築することができ、様々なセンサータイプにわたる車内説明のための汎用的なツールである。
これらの説明は、乗客や信頼できるユーザーに通知することから、過去の行動のポストホック分析を可能にすることまで、様々な目的に役立てることができる。
論文 参考訳(メタデータ) (2024-03-25T16:19:33Z) - Acquiring Qualitative Explainable Graphs for Automated Driving Scene
Interpretation [17.300690315775576]
自動運転(AD)の未来は、堅牢で公正で説明可能な人工知能の手法の開発に根ざしている。
本稿では,長期シーンの質的推論を目的とした,定性的eXplainable Graph (QXG) と呼ばれるADシーンの新たな表現を提案する。
オープンな実世界のマルチモーダルデータセットであるNuScenesの実験結果は、40フレームからなるADシーンの定性的eXplainableグラフを、空間記憶におけるリアルタイムおよび光で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-08-24T13:01:46Z) - Context-Aware Timewise VAEs for Real-Time Vehicle Trajectory Prediction [4.640835690336652]
マルチモーダル車軌道予測のためのコンテキスト認識手法であるContextVAEを提案する。
本手法は,現場のエージェントが提示する社会的特徴と,身体環境の制約を考慮に入れたものである。
すべてのテストデータセットにおいて、ContextVAEモデルはトレーニングが高速で、リアルタイムに高品質なマルチモーダル予測を提供する。
論文 参考訳(メタデータ) (2023-02-21T18:42:24Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - SCOUT: Socially-COnsistent and UndersTandable Graph Attention Network
for Trajectory Prediction of Vehicles and VRUs [0.0]
SCOUTは、グラフとしてシーンの柔軟で汎用的な表現を使用する新しい注意ベースのグラフニューラルネットワークです。
我々は3つの異なる注意メカニズムを探索し,鳥眼視と車載都市データを用いてそのスキームをテストする。
RounDデータセットの全く新しいシナリオでテストすることにより、モデルの柔軟性と転送性を評価します。
論文 参考訳(メタデータ) (2021-02-12T06:29:28Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。