論文の概要: Development and testing of an image transformer for explainable
autonomous driving systems
- arxiv url: http://arxiv.org/abs/2110.05559v1
- Date: Mon, 11 Oct 2021 19:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 14:55:47.157480
- Title: Development and testing of an image transformer for explainable
autonomous driving systems
- Title(参考訳): 説明可能な自律運転システムのための画像変換器の開発と試験
- Authors: Jiqian Dong, Sikai Chen, Shuya Zong, Tiantian Chen, Mohammad
Miralinaghi, Samuel Labi
- Abstract要約: ディープラーニング(DL)アプローチはコンピュータビジョン(CV)アプリケーションで成功している。
DLベースのCVモデルは一般に、解釈可能性の欠如によりブラックボックスと見なされる。
本稿では,SOTA(State-of-the-art self-attention based model)に基づくエンドツーエンド自動運転システムを提案する。
- 参考スコア(独自算出の注目度): 0.7046417074932257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last decade, deep learning (DL) approaches have been used successfully
in computer vision (CV) applications. However, DL-based CV models are generally
considered to be black boxes due to their lack of interpretability. This black
box behavior has exacerbated user distrust and therefore has prevented
widespread deployment DLCV models in autonomous driving tasks even though some
of these models exhibit superiority over human performance. For this reason, it
is essential to develop explainable DL models for autonomous driving task.
Explainable DL models can not only boost user trust in autonomy but also serve
as a diagnostic approach to identify anydefects and weaknesses of the model
during the system development phase. In this paper, we propose an explainable
end-to-end autonomous driving system based on "Transformer", a state-of-the-art
(SOTA) self-attention based model, to map visual features from images collected
by onboard cameras to guide potential driving actions with corresponding
explanations. The model achieves a soft attention over the global features of
the image. The results demonstrate the efficacy of our proposed model as it
exhibits superior performance (in terms of correct prediction of actions and
explanations) compared to the benchmark model by a significant margin with
lower computational cost.
- Abstract(参考訳): 過去10年間で、ディープラーニング(DL)アプローチはコンピュータビジョン(CV)アプリケーションでうまく使われてきた。
しかしながら、DLベースのCVモデルは一般に、解釈可能性の欠如によりブラックボックスであると考えられている。
このようなブラックボックスの挙動は、ユーザの不信感を悪化させ、これらのモデルでは、人間のパフォーマンスよりも優れているにもかかわらず、自律運転タスクにおけるDLCVモデルの普及を妨げている。
そのため、自律運転タスクのための説明可能なDLモデルを開発することが不可欠である。
説明可能なDLモデルは、自律性に対するユーザの信頼を高めるだけでなく、システム開発フェーズにおけるモデルの欠陥や弱点を特定するための診断アプローチとしても機能します。
本稿では,SOTA(State-of-the-art self-attention based model)モデルであるTransformerに基づいて,車載カメラで収集した画像から視覚的特徴をマッピングし,潜在的な運転行動のガイドを行う。
このモデルは画像のグローバルな特徴に対してソフトな注意を払っている。
その結果,提案モデルの有効性は,計算コストの低い有意差でベンチマークモデルと比較し,優れた性能(行動予測と説明の正確さ)を示すことを示した。
関連論文リスト
- Generalized Predictive Model for Autonomous Driving [75.39517472462089]
本稿では,自動運転分野における最初の大規模ビデオ予測モデルを紹介する。
我々のモデルはGenADと呼ばれ、新しい時間的推論ブロックでシーンを駆動する際の挑戦的なダイナミクスを扱う。
アクション条件付き予測モデルやモーションプランナーに適応することができ、現実世界の運転アプリケーションに大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-03-14T17:58:33Z) - DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - BAT: Behavior-Aware Human-Like Trajectory Prediction for Autonomous
Driving [24.123577277806135]
我々は行動認識軌道予測モデル(BAT)を考案した。
我々のモデルは行動認識、相互作用認識、優先度認識、位置認識モジュールから構成される。
次世代シミュレーション(NGSIM)、ハイウェイドローン(HighD)、ラウンドアバウンドドローン(RounD)、マカオコネクテッド自律運転(MoCAD)データセットにおけるBATの性能を評価する。
論文 参考訳(メタデータ) (2023-12-11T13:27:51Z) - Exploring Model Transferability through the Lens of Potential Energy [78.60851825944212]
トランスファーラーニングは、事前訓練されたディープラーニングモデルが広く利用可能であることから、コンピュータビジョンタスクにおいて重要になっている。
既存のトレーニング済みモデルの転送可能性の測定方法は、符号化された静的特徴とタスクラベルの間の統計的相関に依存する。
我々はこれらの課題に対処するために,PEDという物理に着想を得たアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:15:57Z) - An active inference model of car following: Advantages and applications [6.905724739762358]
ドライバープロセスモデルは、自動および自律走行車技術のテスト、検証、開発において中心的な役割を果たす。
データ駆動機械学習モデルは、ルールベースのモデルよりも能力が高いが、大規模なトレーニングデータセットの必要性と、解釈可能性の欠如によって制限されている。
本稿では,解釈可能性を維持しつつ,データ駆動モデルに匹敵する振る舞いの柔軟性を有するアクティブ推論を用いたモデリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-27T13:39:26Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Your Autoregressive Generative Model Can be Better If You Treat It as an
Energy-Based One [83.5162421521224]
本稿では,自己回帰生成モデルの学習のための独自のE-ARM法を提案する。
E-ARMは、よく設計されたエネルギーベースの学習目標を活用する。
我々は、E-ARMを効率的に訓練でき、露光バイアス問題を緩和できることを示した。
論文 参考訳(メタデータ) (2022-06-26T10:58:41Z) - Reason induced visual attention for explainable autonomous driving [2.090380922731455]
ディープラーニング (DL) ベースのコンピュータビジョン (CV) モデルは一般的に、解釈性が悪いため、ブラックボックスと見なされる。
本研究の目的は,自律運転におけるDLモデルの解釈可能性を高めることにある。
提案手法は,視覚入力(画像)と自然言語を協調的にモデル化することにより,人間の運転者の学習過程を模倣する。
論文 参考訳(メタデータ) (2021-10-11T18:50:41Z) - Action-Based Representation Learning for Autonomous Driving [8.296684637620551]
本稿では,行動に基づく運転データを学習表現に用いることを提案する。
提案手法を用いて事前学習した空き時間に基づく運転モデルでは,比較的少量の弱注釈画像が有効であることを示す。
論文 参考訳(メタデータ) (2020-08-21T10:49:13Z) - An LSTM-Based Autonomous Driving Model Using Waymo Open Dataset [7.151393153761375]
本稿では,短期記憶モデル(LSTM)を用いた自律走行モデルの動作を模倣する手法を提案する。
実験結果から,本モデルは動作予測においていくつかのモデルより優れることがわかった。
論文 参考訳(メタデータ) (2020-02-14T05:28:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。