論文の概要: Development and testing of an image transformer for explainable
autonomous driving systems
- arxiv url: http://arxiv.org/abs/2110.05559v1
- Date: Mon, 11 Oct 2021 19:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 14:55:47.157480
- Title: Development and testing of an image transformer for explainable
autonomous driving systems
- Title(参考訳): 説明可能な自律運転システムのための画像変換器の開発と試験
- Authors: Jiqian Dong, Sikai Chen, Shuya Zong, Tiantian Chen, Mohammad
Miralinaghi, Samuel Labi
- Abstract要約: ディープラーニング(DL)アプローチはコンピュータビジョン(CV)アプリケーションで成功している。
DLベースのCVモデルは一般に、解釈可能性の欠如によりブラックボックスと見なされる。
本稿では,SOTA(State-of-the-art self-attention based model)に基づくエンドツーエンド自動運転システムを提案する。
- 参考スコア(独自算出の注目度): 0.7046417074932257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last decade, deep learning (DL) approaches have been used successfully
in computer vision (CV) applications. However, DL-based CV models are generally
considered to be black boxes due to their lack of interpretability. This black
box behavior has exacerbated user distrust and therefore has prevented
widespread deployment DLCV models in autonomous driving tasks even though some
of these models exhibit superiority over human performance. For this reason, it
is essential to develop explainable DL models for autonomous driving task.
Explainable DL models can not only boost user trust in autonomy but also serve
as a diagnostic approach to identify anydefects and weaknesses of the model
during the system development phase. In this paper, we propose an explainable
end-to-end autonomous driving system based on "Transformer", a state-of-the-art
(SOTA) self-attention based model, to map visual features from images collected
by onboard cameras to guide potential driving actions with corresponding
explanations. The model achieves a soft attention over the global features of
the image. The results demonstrate the efficacy of our proposed model as it
exhibits superior performance (in terms of correct prediction of actions and
explanations) compared to the benchmark model by a significant margin with
lower computational cost.
- Abstract(参考訳): 過去10年間で、ディープラーニング(DL)アプローチはコンピュータビジョン(CV)アプリケーションでうまく使われてきた。
しかしながら、DLベースのCVモデルは一般に、解釈可能性の欠如によりブラックボックスであると考えられている。
このようなブラックボックスの挙動は、ユーザの不信感を悪化させ、これらのモデルでは、人間のパフォーマンスよりも優れているにもかかわらず、自律運転タスクにおけるDLCVモデルの普及を妨げている。
そのため、自律運転タスクのための説明可能なDLモデルを開発することが不可欠である。
説明可能なDLモデルは、自律性に対するユーザの信頼を高めるだけでなく、システム開発フェーズにおけるモデルの欠陥や弱点を特定するための診断アプローチとしても機能します。
本稿では,SOTA(State-of-the-art self-attention based model)モデルであるTransformerに基づいて,車載カメラで収集した画像から視覚的特徴をマッピングし,潜在的な運転行動のガイドを行う。
このモデルは画像のグローバルな特徴に対してソフトな注意を払っている。
その結果,提案モデルの有効性は,計算コストの低い有意差でベンチマークモデルと比較し,優れた性能(行動予測と説明の正確さ)を示すことを示した。
関連論文リスト
- DRIVE: Dependable Robust Interpretable Visionary Ensemble Framework in Autonomous Driving [1.4104119587524289]
自動運転の最近の進歩は、エンド・ツー・エンドの学習パラダイムへのパラダイムシフトを経験している。
これらのモデルは、しばしば解釈可能性を犠牲にし、信頼、安全、規制の遵守に重大な課題を提起する。
我々は、エンドツーエンドの教師なし運転モデルにおける説明の信頼性と安定性を改善するために設計された総合的なフレームワークDRIVEを紹介する。
論文 参考訳(メタデータ) (2024-09-16T14:40:47Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Your Autoregressive Generative Model Can be Better If You Treat It as an
Energy-Based One [83.5162421521224]
本稿では,自己回帰生成モデルの学習のための独自のE-ARM法を提案する。
E-ARMは、よく設計されたエネルギーベースの学習目標を活用する。
我々は、E-ARMを効率的に訓練でき、露光バイアス問題を緩和できることを示した。
論文 参考訳(メタデータ) (2022-06-26T10:58:41Z) - Reason induced visual attention for explainable autonomous driving [2.090380922731455]
ディープラーニング (DL) ベースのコンピュータビジョン (CV) モデルは一般的に、解釈性が悪いため、ブラックボックスと見なされる。
本研究の目的は,自律運転におけるDLモデルの解釈可能性を高めることにある。
提案手法は,視覚入力(画像)と自然言語を協調的にモデル化することにより,人間の運転者の学習過程を模倣する。
論文 参考訳(メタデータ) (2021-10-11T18:50:41Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z) - An LSTM-Based Autonomous Driving Model Using Waymo Open Dataset [7.151393153761375]
本稿では,短期記憶モデル(LSTM)を用いた自律走行モデルの動作を模倣する手法を提案する。
実験結果から,本モデルは動作予測においていくつかのモデルより優れることがわかった。
論文 参考訳(メタデータ) (2020-02-14T05:28:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。