論文の概要: Perceptual Motor Learning with Active Inference Framework for Robust Lateral Control
- arxiv url: http://arxiv.org/abs/2503.01676v2
- Date: Wed, 05 Mar 2025 01:27:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 12:09:41.812041
- Title: Perceptual Motor Learning with Active Inference Framework for Robust Lateral Control
- Title(参考訳): ロバスト側方制御のための能動推論フレームワークを用いた知覚運動学習
- Authors: Elahe Delavari, John Moore, Junho Hong, Jaerock Kwon,
- Abstract要約: 本稿では、高自動走行車(HAV)における横方向制御を強化するために、アクティブ推論(AIF)と統合された新しい知覚運動学習フレームワークを提案する。
PMLは知覚と行動のシームレスな統合を強調し、動的環境における効率的な意思決定を可能にする。
弊社のアプローチは、ディープラーニングをアクティブな推論原則と統合し、HAVが最小限のデータで車線維持を行い、異なる環境にまたがる広範な再訓練を行なわないようにする。
- 参考スコア(独自算出の注目度): 0.5437298646956507
- License:
- Abstract: This paper presents a novel Perceptual Motor Learning (PML) framework integrated with Active Inference (AIF) to enhance lateral control in Highly Automated Vehicles (HAVs). PML, inspired by human motor learning, emphasizes the seamless integration of perception and action, enabling efficient decision-making in dynamic environments. Traditional autonomous driving approaches--including modular pipelines, imitation learning, and reinforcement learning--struggle with adaptability, generalization, and computational efficiency. In contrast, PML with AIF leverages a generative model to minimize prediction error ("surprise") and actively shape vehicle control based on learned perceptual-motor representations. Our approach unifies deep learning with active inference principles, allowing HAVs to perform lane-keeping maneuvers with minimal data and without extensive retraining across different environments. Extensive experiments in the CARLA simulator demonstrate that PML with AIF enhances adaptability without increasing computational overhead while achieving performance comparable to conventional methods. These findings highlight the potential of PML-driven active inference as a robust alternative for real-world autonomous driving applications.
- Abstract(参考訳): 本稿では,高自動走行車(HAV)における横方向制御を強化するために,アクティブ推論(AIF)と統合された新しい知覚運動学習(PML)フレームワークを提案する。
人間の運動学習にインスパイアされたPMLは、知覚と行動のシームレスな統合を強調し、動的環境における効率的な意思決定を可能にする。
従来の自律運転アプローチ – モジュラーパイプライン、模倣学習、強化学習など – は、適応性、一般化、計算効率に重点を置いている。
対照的に、AIFを用いたPMLは、生成モデルを利用して予測誤差を最小化し(サプライズ)、学習された知覚運動量表現に基づいて車両制御を活発に形成する。
当社のアプローチはディープラーニングをアクティブな推論原則と統合し,HAVが最小限のデータで車線維持操作を行なえるようにし,異なる環境にまたがる広範な再訓練を行なわないようにする。
CARLAシミュレータの大規模な実験により、従来の手法に匹敵する性能を達成しつつ、計算オーバーヘッドを増大させることなく、AIFを用いたPMLが適応性を向上させることが実証された。
これらの知見は、現実の自律運転アプリケーションの堅牢な代替手段として、PML駆動のアクティブ推論の可能性を強調している。
関連論文リスト
- TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - OWLed: Outlier-weighed Layerwise Pruning for Efficient Autonomous Driving Framework [3.8320050452121692]
本稿では,効率的な自律運転フレームワーク Outlier-Weighed Layerwise Pruning であるOWLedを紹介する。
提案手法は,外乱特性の分布に基づいて,異なる層に対して一様でない空間比を割り当てる。
圧縮モデルが自律運転タスクに適合するようにするため、運転環境データをキャリブレーションとプルーニングの両方に組み込む。
論文 参考訳(メタデータ) (2024-11-12T10:55:30Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - Towards Human-Like Driving: Active Inference in Autonomous Vehicle Control [0.5437298646956507]
本稿では,アクティブ推論の適用を通じて,自律走行車(AV)制御への新たなアプローチを提案する。
アクティブ推論(英: Active Inference)は、脳を予測機械として概念化する神経科学に由来する理論である。
提案手法は,深層学習と能動推論を統合してAVの側方制御を制御し,シミュレーション都市環境下で車線追従操作を行う。
論文 参考訳(メタデータ) (2024-07-10T14:08:27Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Uncertainty-Aware Model-Based Reinforcement Learning with Application to
Autonomous Driving [2.3303341607459687]
本稿では,新しい不確実性を考慮したモデルに基づく強化学習フレームワークを提案する。
このフレームワークは適応的トランケーションアプローチに基づいて開発され、エージェントと環境モデルの間の仮想相互作用を提供する。
開発したアルゴリズムは、エンド・ツー・エンドの自動運転車制御タスクで実装され、様々な運転シナリオにおける最先端の手法と比較される。
論文 参考訳(メタデータ) (2021-06-23T06:55:14Z) - Learning hierarchical behavior and motion planning for autonomous
driving [32.78069835190924]
本稿では,階層的行動計画(HBMP)を導入し,学習ベースソリューションの動作を明示的にモデル化する。
我々は、古典的なサンプリングベースのモーションプランナを統合することで、HBMP問題を変換する。
さらに,シミュレーションプラットフォームと実環境をまたいだ入力感覚データの共有可能な表現を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:34:55Z) - TS-MPC for Autonomous Vehicle using a Learning Approach [0.0]
車両力学の高木スジェノ(TS)表現をデータ駆動で学習する。
TSモデリングに対処するために、適応型ニューロファジィ推論システム(ANFIS)を用いる。
提案手法は,外部プランナのレースベース参照とMHEからの推定により提案される。
論文 参考訳(メタデータ) (2020-04-29T17:42:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。