論文の概要: MIND-Stack: Modular, Interpretable, End-to-End Differentiability for Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2505.21734v1
- Date: Tue, 27 May 2025 20:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.27605
- Title: MIND-Stack: Modular, Interpretable, End-to-End Differentiability for Autonomous Navigation
- Title(参考訳): MIND-Stack: 自律ナビゲーションのためのモジュール型、解釈可能、エンドツーエンドの差別化
- Authors: Felix Jahncke, Johannes Betz,
- Abstract要約: ローカライゼーションネットワークとStanley Controllerで構成されるモジュール型ソフトウェアスタックであるMIND-Stackを提案する。
我々のアプローチでは、上流のローカライゼーションモジュールが下流の制御誤差を減らし、状態推定を超えてその役割を延長できる。
本研究では, ローカライゼーションモジュールのエンド・ツー・エンドの微分可能性を通じて, 下流制御損失を低減する能力を示す実験を行った。
- 参考スコア(独自算出の注目度): 2.07180164747172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing robust, efficient navigation algorithms is challenging. Rule-based methods offer interpretability and modularity but struggle with learning from large datasets, while end-to-end neural networks excel in learning but lack transparency and modularity. In this paper, we present MIND-Stack, a modular software stack consisting of a localization network and a Stanley Controller with intermediate human interpretable state representations and end-to-end differentiability. Our approach enables the upstream localization module to reduce the downstream control error, extending its role beyond state estimation. Unlike existing research on differentiable algorithms that either lack modules of the autonomous stack to span from sensor input to actuator output or real-world implementation, MIND-Stack offers both capabilities. We conduct experiments that demonstrate the ability of the localization module to reduce the downstream control loss through its end-to-end differentiability while offering better performance than state-of-the-art algorithms. We showcase sim-to-real capabilities by deploying the algorithm on a real-world embedded autonomous platform with limited computation power and demonstrate simultaneous training of both the localization and controller towards one goal. While MIND-Stack shows good results, we discuss the incorporation of additional modules from the autonomous navigation pipeline in the future, promising even greater stability and performance in the next iterations of the framework.
- Abstract(参考訳): 堅牢で効率的なナビゲーションアルゴリズムの開発は難しい。
ルールベースの手法は、解釈可能性とモジュール性を提供するが、大規模なデータセットからの学習に苦労する一方で、エンドツーエンドのニューラルネットワークは学習に優れ、透明性とモジュール性に欠ける。
本稿では,ローカライズネットワークとStanley Controllerから構成されるモジュール型ソフトウェアスタックであるMIND-Stackについて述べる。
我々のアプローチでは、上流のローカライゼーションモジュールが下流の制御誤差を減らし、状態推定を超えてその役割を延長できる。
センサー入力からアクチュエータ出力、あるいは実世界の実装まで、自律スタックのモジュールが欠如している既存のアルゴリズムとは異なり、MIND-Stackは両方の機能を提供する。
我々は、ローカライズモジュールが、最先端のアルゴリズムよりも優れた性能を提供しながら、エンドツーエンドの微分可能性を通じて、ダウンストリーム制御損失を低減する能力を示す実験を行う。
本稿では,計算能力に制限のある実世界の組み込み自律プラットフォームにアルゴリズムをデプロイし,ローカライゼーションとコントローラの同時トレーニングを1つの目標に向けて示す。
MIND-Stackは良い結果を示しているが、将来、自律的なナビゲーションパイプラインから追加モジュールを取り入れることについて議論し、フレームワークの次のイテレーションでさらなる安定性とパフォーマンスを約束する。
関連論文リスト
- Self-Supervised Interpretable End-to-End Learning via Latent Functional Modularity [2.163881720692685]
MoNetは、自己教師付き、解釈可能なエンドツーエンド学習のための、機能的にモジュール化されたネットワークである。
現実世界の屋内環境では、MoNetは効果的な視覚自律ナビゲーションを示し、ベースラインモデルを7%から28%上回っている。
論文 参考訳(メタデータ) (2024-02-21T15:17:20Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - Modular Deep Learning [120.36599591042908]
トランスファーラーニングは近年、機械学習の主要なパラダイムとなっている。
負の干渉を伴わずに複数のタスクを専門とするモデルを開発する方法はまだ不明である。
これらの課題に対する有望な解決策として、モジュール型ディープラーニングが登場した。
論文 参考訳(メタデータ) (2023-02-22T18:11:25Z) - DiffStack: A Differentiable and Modular Control Stack for Autonomous
Vehicles [75.43355868143209]
DiffStackは、予測、計画、制御のための、微分可能でモジュラーなスタックです。
nuScenesデータセットの結果から,DiffStackによるエンドツーエンドトレーニングは,オープンループおよびクローズループ計画の指標を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-12-13T09:05:21Z) - A unified software/hardware scalable architecture for brain-inspired
computing based on self-organizing neural models [6.072718806755325]
我々は、Reentrant SOM(ReSOM)モデルにおいて、自己組織化マップ(SOM)とHebbian学習を関連付ける脳誘発ニューラルモデルを開発した。
この研究は、FPGAベースの専用プラットフォーム上でのシミュレーション結果とハードウェア実行の両方を通じて、モデルの分散性とスケーラブル性を実証する。
論文 参考訳(メタデータ) (2022-01-06T22:02:19Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。