論文の概要: Explainable deep learning improves human mental models of self-driving cars
- arxiv url: http://arxiv.org/abs/2411.18714v1
- Date: Wed, 27 Nov 2024 19:38:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:21:32.133321
- Title: Explainable deep learning improves human mental models of self-driving cars
- Title(参考訳): 説明可能なディープラーニングは、自動運転車の人間のメンタルモデルを改善する
- Authors: Eoin M. Kenny, Akshay Dharmavaram, Sang Uk Lee, Tung Phan-Minh, Shreyas Rajesh, Yunqing Hu, Laura Major, Momchil S. Tomov, Julie A. Shah,
- Abstract要約: 概念ラッパーネットワーク (concept-wrapper network, CW-Net) は、ブラックボックス運動プランナーの動作を説明する手法である。
我々は、実際の自動運転車にCW-Netをデプロイし、その結果の説明が人間の運転者の精神モデルを洗練させることを示す。
我々は,自律型ドローンやロボット外科医など,ループ内に人間がいる他の安全クリティカルシステムに適用できることを期待している。
- 参考スコア(独自算出の注目度): 12.207001033390226
- License:
- Abstract: Self-driving cars increasingly rely on deep neural networks to achieve human-like driving. However, the opacity of such black-box motion planners makes it challenging for the human behind the wheel to accurately anticipate when they will fail, with potentially catastrophic consequences. Here, we introduce concept-wrapper network (i.e., CW-Net), a method for explaining the behavior of black-box motion planners by grounding their reasoning in human-interpretable concepts. We deploy CW-Net on a real self-driving car and show that the resulting explanations refine the human driver's mental model of the car, allowing them to better predict its behavior and adjust their own behavior accordingly. Unlike previous work using toy domains or simulations, our study presents the first real-world demonstration of how to build authentic autonomous vehicles (AVs) that give interpretable, causally faithful explanations for their decisions, without sacrificing performance. We anticipate our method could be applied to other safety-critical systems with a human in the loop, such as autonomous drones and robotic surgeons. Overall, our study suggests a pathway to explainability for autonomous agents as a whole, which can help make them more transparent, their deployment safer, and their usage more ethical.
- Abstract(参考訳): 自動運転車は、人間のような運転を実現するために、ディープニューラルネットワークをますます頼りにしている。
しかし、このようなブラックボックスのモーションプランナーの不透明さは、車輪の後ろの人間が失敗するタイミングを正確に予測することは困難であり、破滅的な結果をもたらす可能性がある。
本稿では,ブラックボックス運動プランナの動作を説明するための概念ラッパーネットワーク(CW-Net)を提案する。
我々は、実際の自動運転車にCW-Netを配置し、その結果の説明によって人間の運転者のメンタルモデルが洗練され、その振る舞いをより正確に予測し、それに応じて行動を調整することができることを示す。
おもちゃのドメインやシミュレーションを使った従来の研究とは違って、我々の研究は、パフォーマンスを犠牲にすることなく、解釈可能で因果的に忠実な説明を提供する、真正な自動運転車(AV)の作り方に関する、世界初の実世界の実例を示します。
我々は,自律型ドローンやロボット外科医など,ループ内に人間がいる他の安全クリティカルシステムに適用できることを期待している。
全体として、我々の研究は、自律エージェント全体の説明可能性への道筋を示唆している。これにより、それらがより透明になり、デプロイがより安全になり、使用が倫理的になる。
関連論文リスト
- IGDrivSim: A Benchmark for the Imitation Gap in Autonomous Driving [35.64960921334498]
textbfIGDrivSimはWaymaxシミュレータ上に構築されたベンチマークである。
実験の結果,この認識ギャップは安全かつ効果的な運転行動の学習を妨げることが示された。
本研究は,模倣と強化学習を組み合わせることで,禁止行為に対する簡単な報奨を生かし,これらの失敗を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-11-07T12:28:52Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles [4.1636282808157254]
自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T23:02:13Z) - A Language Agent for Autonomous Driving [31.359413767191608]
本稿では,人間のような知性を自律運転システムに統合するためのパラダイムシフトを提案する。
当社のアプローチはAgent-Driverと呼ばれ,汎用ツールライブラリを導入して,従来の自律走行パイプラインを変革する。
LLM(Large Language Models)によって駆動されるエージェントドライブには直感的な常識と堅牢な推論能力が備わっています。
論文 参考訳(メタデータ) (2023-11-17T18:59:56Z) - Driving through the Concept Gridlock: Unraveling Explainability
Bottlenecks in Automated Driving [22.21822829138535]
本稿では,視覚的特徴として概念ボトルネックを用いる新しい手法を提案する。
我々は、車両制御コマンドを学習しながら、シーケンシャルな運転シーンを説明するために、人間の理解可能な概念層を学習する。
このアプローチは、人間の(または自動運転車)からの指示が外部からの刺激や好みの変化によって導かれるかどうかを判断するために使用することができる。
論文 参考訳(メタデータ) (2023-10-25T13:39:04Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Explainability of vision-based autonomous driving systems: Review and
challenges [33.720369945541805]
説明可能性の必要性は運転で強く、安全クリティカルなアプリケーションです。
この調査は、コンピュータビジョン、ディープラーニング、自動運転、説明可能なAI(X-AI)など、いくつかの研究分野から貢献を集めています。
論文 参考訳(メタデータ) (2021-01-13T19:09:38Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。