論文の概要: Exploring Latent Pathways: Enhancing the Interpretability of Autonomous Driving with a Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2404.01750v1
- Date: Tue, 2 Apr 2024 09:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:18:56.581565
- Title: Exploring Latent Pathways: Enhancing the Interpretability of Autonomous Driving with a Variational Autoencoder
- Title(参考訳): 潜在経路探索:変分オートエンコーダによる自律走行の解釈性向上
- Authors: Anass Bairouk, Mirjana Maras, Simon Herlin, Alexander Amini, Marc Blanchon, Ramin Hasani, Patrick Chareyre, Daniela Rus,
- Abstract要約: バイオインスパイアされたニューラルサーキットポリシーモデルが革新的な制御モジュールとして登場した。
我々は、変分オートエンコーダとニューラルネットワークポリシーコントローラを統合することで、飛躍的に前進する。
本研究は,変分オートエンコーダへのアーキテクチャシフトに加えて,自動潜時摂動ツールを導入する。
- 参考スコア(独自算出の注目度): 79.70947339175572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving presents a complex challenge, which is usually addressed with artificial intelligence models that are end-to-end or modular in nature. Within the landscape of modular approaches, a bio-inspired neural circuit policy model has emerged as an innovative control module, offering a compact and inherently interpretable system to infer a steering wheel command from abstract visual features. Here, we take a leap forward by integrating a variational autoencoder with the neural circuit policy controller, forming a solution that directly generates steering commands from input camera images. By substituting the traditional convolutional neural network approach to feature extraction with a variational autoencoder, we enhance the system's interpretability, enabling a more transparent and understandable decision-making process. In addition to the architectural shift toward a variational autoencoder, this study introduces the automatic latent perturbation tool, a novel contribution designed to probe and elucidate the latent features within the variational autoencoder. The automatic latent perturbation tool automates the interpretability process, offering granular insights into how specific latent variables influence the overall model's behavior. Through a series of numerical experiments, we demonstrate the interpretative power of the variational autoencoder-neural circuit policy model and the utility of the automatic latent perturbation tool in making the inner workings of autonomous driving systems more transparent.
- Abstract(参考訳): 自律運転は複雑な課題であり、通常はエンドツーエンドまたはモジュール化された人工知能モデルで対処される。
モジュラーアプローチの風景の中で、バイオインスパイアされたニューラルネットワークポリシーモデルが革新的な制御モジュールとして登場し、抽象的な視覚的特徴からハンドルコマンドを推論するコンパクトで本質的に解釈可能なシステムを提供している。
ここでは、可変オートエンコーダをニューラルネットワークポリシーコントローラに統合し、入力されたカメライメージから直接ステアリングコマンドを生成するソリューションを構築することで、飛躍的に前進する。
従来の畳み込みニューラルネットワークアプローチを変分オートエンコーダで特徴抽出に置き換えることで、システムの解釈可能性を高め、より透明で理解可能な意思決定プロセスを可能にします。
本研究は,変分オートエンコーダへのアーキテクチャシフトに加えて,変分オートエンコーダ内の潜時特徴を探索・解明するための新しいコントリビューションである自動潜時摂動ツールを導入する。
自動潜伏摂動ツールは、解釈可能性プロセスを自動化し、特定の潜伏変数が全体モデルの振る舞いにどのように影響するかに関する詳細な洞察を提供する。
一連の数値実験を通して,変分自己エンコーダ・ニューラル回路ポリシーモデルの解釈力と,自律運転システムの内部動作をより透過的にするための自動潜時摂動ツールの有用性を実証した。
関連論文リスト
- Learning from Pattern Completion: Self-supervised Controllable Generation [31.694486524155593]
本稿では,脳の連想力に寄与する神経機構にインスパイアされた,自己制御型制御可能生成(SCG)フレームワークを提案する。
実験により,モジュール型オートエンコーダは機能的特殊化を効果的に実現することが示された。
提案手法は,より難易度の高い高雑音シナリオにおいて優れたロバスト性を示すだけでなく,自己管理的な手法により,より有望なスケーラビリティの可能性を秘めている。
論文 参考訳(メタデータ) (2024-09-27T12:28:47Z) - Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Variational Autoencoding Neural Operators [17.812064311297117]
関数型データによる教師なし学習は、コンピュータビジョン、気候モデリング、物理システムへの応用を含む機械学習研究の新たなパラダイムである。
本稿では,大規模な演算子学習アーキテクチャを変分オートエンコーダとして機能させる汎用戦略として,変分オートエンコードニューラル演算子(VANO)を提案する。
論文 参考訳(メタデータ) (2023-02-20T22:34:43Z) - On the Forward Invariance of Neural ODEs [92.07281135902922]
本稿では,ニューラル常微分方程式(ODE)が出力仕様を満たすことを保証するための新しい手法を提案する。
提案手法では,出力仕様を学習システムのパラメータや入力の制約に変換するために,制御障壁関数のクラスを用いる。
論文 参考訳(メタデータ) (2022-10-10T15:18:28Z) - Adaptation through prediction: multisensory active inference torque
control [0.0]
本稿では,産業用アームのための多感能動型トルクコントローラを提案する。
私たちのコントローラは、予測的脳仮説にインスパイアされ、現在のアクティブな推論アプローチの能力を向上します。
論文 参考訳(メタデータ) (2021-12-13T16:03:18Z) - Bidirectional Interaction between Visual and Motor Generative Models
using Predictive Coding and Active Inference [68.8204255655161]
本稿では,感覚予測のための生成モデルと,運動軌跡の生成モデルからなるニューラルアーキテクチャを提案する。
我々は,知覚予測のシーケンスが学習,制御,オンライン適応を導くレールとしてどのように機能するかを強調する。
論文 参考訳(メタデータ) (2021-04-19T09:41:31Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - AutoBayes: Automated Bayesian Graph Exploration for Nuisance-Robust
Inference [21.707911452679152]
我々は、ニュアンス不変の機械学習パイプラインを最適化するために、AutoBayesと呼ばれる自動ベイズ推論フレームワークを導入する。
探索されたグラフィカルモデル間でのアンサンブル学習による大幅な性能向上を示す。
論文 参考訳(メタデータ) (2020-07-02T17:06:26Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。