論文の概要: Reason induced visual attention for explainable autonomous driving
- arxiv url: http://arxiv.org/abs/2110.07380v1
- Date: Mon, 11 Oct 2021 18:50:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 14:47:25.787401
- Title: Reason induced visual attention for explainable autonomous driving
- Title(参考訳): 説明可能な自律運転のための理性誘発視覚注意
- Authors: Sikai Chen, Jiqian Dong, Runjia Du, Yujie Li, Samuel Labi
- Abstract要約: ディープラーニング (DL) ベースのコンピュータビジョン (CV) モデルは一般的に、解釈性が悪いため、ブラックボックスと見なされる。
本研究の目的は,自律運転におけるDLモデルの解釈可能性を高めることにある。
提案手法は,視覚入力(画像)と自然言語を協調的にモデル化することにより,人間の運転者の学習過程を模倣する。
- 参考スコア(独自算出の注目度): 2.090380922731455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) based computer vision (CV) models are generally considered
as black boxes due to poor interpretability. This limitation impedes efficient
diagnoses or predictions of system failure, thereby precluding the widespread
deployment of DLCV models in safety-critical tasks such as autonomous driving.
This study is motivated by the need to enhance the interpretability of DL model
in autonomous driving and therefore proposes an explainable DL-based framework
that generates textual descriptions of the driving environment and makes
appropriate decisions based on the generated descriptions. The proposed
framework imitates the learning process of human drivers by jointly modeling
the visual input (images) and natural language, while using the language to
induce the visual attention in the image. The results indicate strong
explainability of autonomous driving decisions obtained by focusing on relevant
features from visual inputs. Furthermore, the output attention maps enhance the
interpretability of the model not only by providing meaningful explanation to
the model behavior but also by identifying the weakness of and potential
improvement directions for the model.
- Abstract(参考訳): ディープラーニング (DL) ベースのコンピュータビジョン (CV) モデルは一般的に、解釈性が悪いためブラックボックスと見なされる。
この制限は、システム障害の効率的な診断や予測を阻害し、自動運転のような安全クリティカルなタスクにおけるdlcvモデルの広範な展開を妨げる。
本研究は、自律運転におけるDLモデルの解釈可能性を高めることの必要性を動機とし、運転環境のテキスト記述を生成し、生成された記述に基づいて適切な決定を行う説明可能なDLベースのフレームワークを提案する。
提案手法は,視覚入力(画像)と自然言語を共同でモデル化し,視覚の注意を誘導するために言語を用いて人間のドライバの学習プロセスを模倣する。
その結果,視覚入力の関連特徴に着目した自律運転決定の強固な説明が可能となった。
さらに、出力注意マップは、モデル行動に意味のある説明を与えるだけでなく、モデルの弱点と潜在的な改善方向を特定することによって、モデルの解釈可能性を高める。
関連論文リスト
- Explanation for Trajectory Planning using Multi-modal Large Language Model for Autonomous Driving [6.873701251194593]
この制限を解決するために,エゴ車両の将来の計画軌道を入力とする推論モデルを提案する。
本研究では,エゴ車両の今後の計画軌跡を入力として,この制限を新たに収集したデータセットで解決する推論モデルを提案する。
論文 参考訳(メタデータ) (2024-11-15T06:05:33Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - DRIVE: Dependable Robust Interpretable Visionary Ensemble Framework in Autonomous Driving [1.4104119587524289]
自動運転の最近の進歩は、エンド・ツー・エンドの学習パラダイムへのパラダイムシフトを経験している。
これらのモデルは、しばしば解釈可能性を犠牲にし、信頼、安全、規制の遵守に重大な課題を提起する。
我々は、エンドツーエンドの教師なし運転モデルにおける説明の信頼性と安定性を改善するために設計された総合的なフレームワークDRIVEを紹介する。
論文 参考訳(メタデータ) (2024-09-16T14:40:47Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Driving through the Concept Gridlock: Unraveling Explainability
Bottlenecks in Automated Driving [22.21822829138535]
本稿では,視覚的特徴として概念ボトルネックを用いる新しい手法を提案する。
我々は、車両制御コマンドを学習しながら、シーケンシャルな運転シーンを説明するために、人間の理解可能な概念層を学習する。
このアプローチは、人間の(または自動運転車)からの指示が外部からの刺激や好みの変化によって導かれるかどうかを判断するために使用することができる。
論文 参考訳(メタデータ) (2023-10-25T13:39:04Z) - Development and testing of an image transformer for explainable
autonomous driving systems [0.7046417074932257]
ディープラーニング(DL)アプローチはコンピュータビジョン(CV)アプリケーションで成功している。
DLベースのCVモデルは一般に、解釈可能性の欠如によりブラックボックスと見なされる。
本稿では,SOTA(State-of-the-art self-attention based model)に基づくエンドツーエンド自動運転システムを提案する。
論文 参考訳(メタデータ) (2021-10-11T19:01:41Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Explaining Autonomous Driving by Learning End-to-End Visual Attention [25.09407072098823]
現在のディープラーニングベースの自律運転アプローチは、いくつかの制御されたシナリオにおいて、本番環境へのデプロイも実現している。
最も人気があり魅力的なアプローチの1つは、センサーが認識したデータから直接車両の制御を学習することに依存している。
このアプローチの主な欠点は、他の学習問題と同様に、説明可能性の欠如である。実際、ディープネットワークは、なぜそのような決定を下されたのかを何のフィードバックも与えずに、これまで見られた駆動パターンによって予測を出力するブラックボックスとして機能する。
論文 参考訳(メタデータ) (2020-06-05T10:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。