論文の概要: Explaining Autonomous Driving by Learning End-to-End Visual Attention
- arxiv url: http://arxiv.org/abs/2006.03347v1
- Date: Fri, 5 Jun 2020 10:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:02:38.262646
- Title: Explaining Autonomous Driving by Learning End-to-End Visual Attention
- Title(参考訳): エンド・ツー・エンドの視覚注意の学習による自動運転の説明
- Authors: Luca Cultrera, Lorenzo Seidenari, Federico Becattini, Pietro Pala,
Alberto Del Bimbo
- Abstract要約: 現在のディープラーニングベースの自律運転アプローチは、いくつかの制御されたシナリオにおいて、本番環境へのデプロイも実現している。
最も人気があり魅力的なアプローチの1つは、センサーが認識したデータから直接車両の制御を学習することに依存している。
このアプローチの主な欠点は、他の学習問題と同様に、説明可能性の欠如である。実際、ディープネットワークは、なぜそのような決定を下されたのかを何のフィードバックも与えずに、これまで見られた駆動パターンによって予測を出力するブラックボックスとして機能する。
- 参考スコア(独自算出の注目度): 25.09407072098823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current deep learning based autonomous driving approaches yield impressive
results also leading to in-production deployment in certain controlled
scenarios. One of the most popular and fascinating approaches relies on
learning vehicle controls directly from data perceived by sensors. This
end-to-end learning paradigm can be applied both in classical supervised
settings and using reinforcement learning. Nonetheless the main drawback of
this approach as also in other learning problems is the lack of explainability.
Indeed, a deep network will act as a black-box outputting predictions depending
on previously seen driving patterns without giving any feedback on why such
decisions were taken. While to obtain optimal performance it is not critical to
obtain explainable outputs from a learned agent, especially in such a safety
critical field, it is of paramount importance to understand how the network
behaves. This is particularly relevant to interpret failures of such systems.
In this work we propose to train an imitation learning based agent equipped
with an attention model. The attention model allows us to understand what part
of the image has been deemed most important. Interestingly, the use of
attention also leads to superior performance in a standard benchmark using the
CARLA driving simulator.
- Abstract(参考訳): 現在のディープラーニングベースの自動運転アプローチは、特定の制御されたシナリオで運用環境にデプロイする上で、印象的な結果をもたらします。
最も人気があり魅力的なアプローチの1つは、センサーが認識したデータから直接車両の制御を学習することだ。
このエンドツーエンド学習パラダイムは、古典的な教師付き設定と強化学習の両方で適用することができる。
それでも、他の学習問題と同様にこのアプローチの主な欠点は、説明可能性の欠如である。
実際、ディープネットワークは、なぜそのような決定がなされたのかをフィードバックすることなく、以前に見られた運転パターンに応じて予測を出力するブラックボックスとして振る舞う。
最適性能を得るためには、特にそのような安全クリティカルフィールドにおいて、学習エージェントから説明可能な出力を得ることは重要ではないが、ネットワークがどのように振る舞うかを理解することが最重要である。
これは特に、そのようなシステムの失敗の解釈に関係している。
本研究では,注意モデルを備えた模擬学習エージェントを訓練することを提案する。
注意モデルによって、画像のどの部分がもっとも重要かを理解することができます。
興味深いことに、注意力の使用は、CARLA駆動シミュレータを使用した標準ベンチマークのパフォーマンスも向上する。
関連論文リスト
- Enhancing End-to-End Autonomous Driving with Latent World Model [78.22157677787239]
コストのかかるラベルを必要とせずにエンドツーエンドの運転を改善するための,新しい自己管理手法を提案する。
フレームワーク textbfLAW は LAtent World モデルを用いて,予測エゴアクションと現在のフレームの潜在機能に基づいて,今後の潜在機能を予測する。
その結果,オープンループベンチマークとクローズループベンチマークの両方において,コストのかかるアノテーションを使わずに最先端のパフォーマンスを実現することができた。
論文 参考訳(メタデータ) (2024-06-12T17:59:21Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - KARNet: Kalman Filter Augmented Recurrent Neural Network for Learning
World Models in Autonomous Driving Tasks [11.489187712465325]
本稿では、フロントカメラ画像のみを用いて、交通流の潜在表現を学習するために、Kalmanフィルタの強化されたリカレントニューラルネットワークアーキテクチャを提案する。
その結果,車両の明示的なモデル(カルマンフィルタを用いて推定した状態)をエンドツーエンド学習に組み込むことで,性能が著しく向上した。
論文 参考訳(メタデータ) (2023-05-24T02:27:34Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Reason induced visual attention for explainable autonomous driving [2.090380922731455]
ディープラーニング (DL) ベースのコンピュータビジョン (CV) モデルは一般的に、解釈性が悪いため、ブラックボックスと見なされる。
本研究の目的は,自律運転におけるDLモデルの解釈可能性を高めることにある。
提案手法は,視覚入力(画像)と自然言語を協調的にモデル化することにより,人間の運転者の学習過程を模倣する。
論文 参考訳(メタデータ) (2021-10-11T18:50:41Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z) - Explicit Domain Adaptation with Loosely Coupled Samples [85.9511585604837]
本稿では,ドメイン間の明示的なマッピングを学習するトランスファーラーニングフレームワークを提案する。
その解釈可能性のために、これは自律運転のような安全クリティカルなアプリケーションにとって有益である。
論文 参考訳(メタデータ) (2020-04-24T21:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。