論文の概要: Towards Trustworthy Automated Driving through Qualitative Scene Understanding and Explanations
- arxiv url: http://arxiv.org/abs/2403.16908v1
- Date: Mon, 25 Mar 2024 16:19:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:34:33.682904
- Title: Towards Trustworthy Automated Driving through Qualitative Scene Understanding and Explanations
- Title(参考訳): 質的シーン理解と説明を通しての信頼性の高い自動運転を目指して
- Authors: Nassim Belmecheri, Arnaud Gotlieb, Nadjib Lazaar, Helge Spieker,
- Abstract要約: 質的説明可能なグラフ(QXG)は、都市移動におけるシーン理解のための統一的な象徴的、質的表現である。
QXGはリアルタイムで構築することができ、様々なセンサータイプにわたる車内説明のための汎用的なツールである。
これらの説明は、乗客や信頼できるユーザーに通知することから、過去の行動のポストホック分析を可能にすることまで、様々な目的に役立てることができる。
- 参考スコア(独自算出の注目度): 15.836913530330786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding driving scenes and communicating automated vehicle decisions are key requirements for trustworthy automated driving. In this article, we introduce the Qualitative Explainable Graph (QXG), which is a unified symbolic and qualitative representation for scene understanding in urban mobility. The QXG enables interpreting an automated vehicle's environment using sensor data and machine learning models. It utilizes spatio-temporal graphs and qualitative constraints to extract scene semantics from raw sensor inputs, such as LiDAR and camera data, offering an interpretable scene model. A QXG can be incrementally constructed in real-time, making it a versatile tool for in-vehicle explanations across various sensor types. Our research showcases the potential of QXG, particularly in the context of automated driving, where it can rationalize decisions by linking the graph with observed actions. These explanations can serve diverse purposes, from informing passengers and alerting vulnerable road users to enabling post-hoc analysis of prior behaviors.
- Abstract(参考訳): 運転シーンの理解と自動走行決定のコミュニケーションは、信頼できる自動走行のための重要な要件である。
本稿では,都市移動におけるシーン理解のための統一的な象徴的,定性的な表現である定性的説明可能グラフ(QXG)を紹介する。
QXGは、センサーデータと機械学習モデルを使用して、自動車両の環境を解釈することを可能にする。
時空間グラフと定性的制約を利用して、LiDARやカメラデータなどの生センサ入力からシーン意味を抽出し、解釈可能なシーンモデルを提供する。
QXGはリアルタイムでインクリメンタルに構築することができ、様々なセンサータイプにわたる車内説明のための汎用的なツールとなる。
本研究は,QXGの可能性,特に自動走行の文脈において,グラフと観察された動作を関連付けることによって意思決定を合理化することができることを示す。
これらの説明は、乗客に通知したり、脆弱な道路利用者に警告したり、過去の行動のポストホック分析を可能にするなど、様々な目的に役立てることができる。
関連論文リスト
- Automatic Odometry-Less OpenDRIVE Generation From Sparse Point Clouds [1.3351610617039973]
高解像度道路表現は、自動運転機能の成功の鍵となる要素である。
本稿では,ポイントクラウド情報のみに基づいて,現実的な道路表現を生成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T08:26:24Z) - Hybrid Reasoning Based on Large Language Models for Autonomous Car Driving [14.64475022650084]
大規模言語モデル(LLM)は、テキストや画像を理解し、人間に似たテキストを生成し、複雑な推論タスクを実行する能力において、大きな注目を集めている。
算術的推論と常識的推論の組み合わせ,特に自律運転シナリオにおけるLLMの適応性について検討する。
論文 参考訳(メタデータ) (2024-02-21T08:09:05Z) - Trustworthy Automated Driving through Qualitative Scene Understanding and Explanations [15.836913530330786]
本稿では,都市移動におけるシーン理解のための統一的シンボルと定性表現である定性説明可能グラフ(QXG)を提案する。
QXGは、センサーデータと機械学習モデルを使用して、自動車両環境の解釈を可能にする。
リアルタイムでインクリメンタルに構築することができ、車内説明やリアルタイム意思決定のための汎用的なツールになります。
論文 参考訳(メタデータ) (2024-01-29T11:20:19Z) - DriveLM: Driving with Graph Visual Question Answering [57.51930417790141]
本研究では,Webスケールデータに基づいて学習した視覚言語モデル(VLM)を,エンド・ツー・エンドの運転システムに統合する方法について検討する。
グラフVQAとエンドツーエンド駆動を併用するVLMベースラインアプローチ(DriveLM-Agent)を提案する。
論文 参考訳(メタデータ) (2023-12-21T18:59:12Z) - Acquiring Qualitative Explainable Graphs for Automated Driving Scene
Interpretation [17.300690315775576]
自動運転(AD)の未来は、堅牢で公正で説明可能な人工知能の手法の開発に根ざしている。
本稿では,長期シーンの質的推論を目的とした,定性的eXplainable Graph (QXG) と呼ばれるADシーンの新たな表現を提案する。
オープンな実世界のマルチモーダルデータセットであるNuScenesの実験結果は、40フレームからなるADシーンの定性的eXplainableグラフを、空間記憶におけるリアルタイムおよび光で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-08-24T13:01:46Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Scenario-Transferable Semantic Graph Reasoning for Interaction-Aware
Probabilistic Prediction [29.623692599892365]
交通参加者の行動の正確な予測は、自動運転車にとって必須の能力である。
本稿では, セマンティクスとドメイン知識を活かして, 様々な運転環境に対する新しい汎用表現を提案する。
論文 参考訳(メタデータ) (2020-04-07T00:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。