論文の概要: Symbolic Imitation Learning: From Black-Box to Explainable Driving Policies
- arxiv url: http://arxiv.org/abs/2309.16025v2
- Date: Sun, 28 Sep 2025 16:34:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.630428
- Title: Symbolic Imitation Learning: From Black-Box to Explainable Driving Policies
- Title(参考訳): 象徴的模倣学習:ブラックボックスから説明可能な運転ポリシーへ
- Authors: Iman Sharifi, Mustafa Yildirim, Saber Fallah,
- Abstract要約: シンボリック・イミテーション・ラーニング(SIL)を導入し、合成データセットから説明可能かつ一般化可能な駆動ポリシーを導出する。
SILは、様々な運転条件の強い性能を維持しながら、ポリシーの透明性を著しく向上させる。
これらの知見は、より安全で信頼性の高い自律システムを促進するために、ILPを模倣学習に統合する可能性を強調している。
- 参考スコア(独自算出の注目度): 4.051817727221252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current imitation learning approaches, predominantly based on deep neural networks (DNNs), offer efficient mechanisms for learning driving policies from real-world datasets. However, they suffer from inherent limitations in interpretability and generalizability--issues of critical importance in safety-critical domains such as autonomous driving. In this paper, we introduce Symbolic Imitation Learning (SIL), a novel framework that leverages Inductive Logic Programming (ILP) to derive explainable and generalizable driving policies from synthetic datasets. We evaluate SIL on real-world HighD and NGSim datasets, comparing its performance with state-of-the-art neural imitation learning methods using metrics such as collision rate, lane change efficiency, and average speed. The results indicate that SIL significantly enhances policy transparency while maintaining strong performance across varied driving conditions. These findings highlight the potential of integrating ILP into imitation learning to promote safer and more reliable autonomous systems.
- Abstract(参考訳): 現在の模倣学習アプローチは、主にディープニューラルネットワーク(DNN)に基づくもので、現実世界のデータセットからポリシーを学習するための効率的なメカニズムを提供する。
しかし、それらは解釈可能性や一般化可能性に固有の制限に悩まされ、自律運転のような安全クリティカルな領域において重要な問題が発生する。
本稿では、帰納的論理プログラミング(ILP)を活用して、合成データセットから説明可能で一般化可能な駆動ポリシーを導出する新しいフレームワークであるSILを紹介する。
実世界のHighDおよびNGSimデータセット上でSILを評価し、衝突速度、車線変化効率、平均速度などの指標を用いて、その性能を最先端のニューラルネットワーク模倣学習法と比較した。
その結果,SILは各種運転条件の強い性能を維持しつつ,政策透明性を著しく向上させることがわかった。
これらの知見は、より安全で信頼性の高い自律システムを促進するために、ILPを模倣学習に統合する可能性を強調している。
関連論文リスト
- KnowVal: A Knowledge-Augmented and Value-Guided Autonomous Driving System [44.93698347738791]
視覚言語推論を可能にする新しい自律運転システムであるKnowValを提案する。
交通法則,防衛運転原則,倫理規範を符号化した総合運転知識グラフを構築した。
KnowVal は nuScene 上での衝突速度と Bench2Drive 上での最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-12-23T12:08:00Z) - Discrete Diffusion for Reflective Vision-Language-Action Models in Autonomous Driving [55.13109926181247]
離散拡散による安全な軌道生成のためのリフレクション機構を統合した学習ベースのフレームワークであるReflectDriveを紹介する。
我々のアプローチの中心は、勾配のない反復的な自己補正を行う、安全を意識した反射機構である。
本手法は目標条件付き軌道生成から始まり,マルチモーダル運転動作をモデル化する。
論文 参考訳(メタデータ) (2025-09-24T13:35:15Z) - LLM-based Human-like Traffic Simulation for Self-driving Tests [16.752944112972667]
本稿では,認知理論と大規模言語モデル(LLM)を組み合わせ,現実的な交通シナリオを生成するHDSimを提案する。
実験により、HDSimをシミュレーションに組み込むことで、自動運転システムの安全性に重大な障害の検出が最大68%向上し、現実主義と矛盾する事故の解釈可能性が得られることが明らかになった。
論文 参考訳(メタデータ) (2025-08-23T09:30:55Z) - A Knowledge-Informed Deep Learning Paradigm for Generalizable and Stability-Optimized Car-Following Models [11.686846898723843]
自動車追従モデル (CFMs) は交通流解析と自律運転の基礎である。
本稿では,事前学習型大規模言語モデル(LLM)の一般化能力を軽量かつ安定性に配慮したニューラルアーキテクチャに蒸留する知識情報深層学習(KIDL)パラダイムを提案する。
KIDLを実世界のNGSIMおよびHighDデータセット上で評価し、その性能を代表的物理ベース、データ駆動、ハイブリッドCFMと比較した。
論文 参考訳(メタデータ) (2025-04-19T09:33:02Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
MLLM(Multimodal Large Language Models)は、視覚データとテキストデータの両方を処理する。
構造化されていない知識と構造化されていない知識の両方を取り入れることでMLLMベースの自動運転システムを強化する新しいフレームワークであるSafeAutoを提案する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - From Imitation to Exploration: End-to-end Autonomous Driving based on World Model [24.578178308010912]
RAMBLEは、意思決定を駆動するエンド・ツー・エンドの世界モデルベースのRL方式である。
複雑な動的トラフィックシナリオを処理できる。
CARLA Leaderboard 1.0では、ルート完了率の最先端のパフォーマンスを達成し、CARLA Leaderboard 2.0では38のシナリオをすべて完了している。
論文 参考訳(メタデータ) (2024-10-03T06:45:59Z) - Distilling Reinforcement Learning Policies for Interpretable Robot Locomotion: Gradient Boosting Machines and Symbolic Regression [53.33734159983431]
本稿では, ニューラルRLポリシをより解釈可能な形式に蒸留する新しい手法を提案する。
我々は、RLを用いて専門家のニューラルネットワークポリシーを訓練し、(i)GBM、(ii)EBM、(iii)シンボリックポリシーに蒸留する。
論文 参考訳(メタデータ) (2024-03-21T11:54:45Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Towards Safe Autonomous Driving Policies using a Neuro-Symbolic Deep
Reinforcement Learning Approach [6.961253535504979]
本稿では, DRLSL (Dybolic Logics) と呼ばれる新しいニューロシンボリックモデルフリーDRLアプローチを提案する。
DRL(経験から学ぶ)とシンボリックな一階述語論理(知識駆動推論)の強みを組み合わせることで、実環境における自動運転のリアルタイムインタラクションにおける安全な学習を可能にする。
我々は,ハイDデータセットを用いた自律走行にDRLSLフレームワークを実装し,トレーニングとテストの両段階において,安全でない動作を回避できることを実証した。
論文 参考訳(メタデータ) (2023-07-03T19:43:21Z) - Learning from Demonstrations of Critical Driving Behaviours Using
Driver's Risk Field [4.272601420525791]
模倣学習(IL)は、自動運転(AV)計画モジュールのコアとして産業で広く利用されている。
これまでのIL研究は、安全クリティカルなシナリオにおけるサンプルの非効率性と低い一般化を示しており、テストされることはめったにない。
本稿では,スプライン係数のパラメータ化とオフライン専門家クエリを用いて,安全性とトレーニング効率を向上させるためのILモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:07:35Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Approximating a deep reinforcement learning docking agent using linear
model trees [0.0]
リニアモデルツリー(LMT)は、ドッキング操作を行う5つの制御入力を持つ自律表面車両のDNNポリシーを近似する。
LMTは透過的であり、入力特徴の特定の値と直接出力(制御アクション)を関連付けることができる。
シミュレーションでは、不透明なDNNポリシーが車両を制御し、LMTは並列に走行し、特徴属性の形で説明を提供する。
論文 参考訳(メタデータ) (2022-03-01T11:32:07Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - UMBRELLA: Uncertainty-Aware Model-Based Offline Reinforcement Learning
Leveraging Planning [1.1339580074756188]
オフライン強化学習(RL)は、オフラインデータから意思決定を学ぶためのフレームワークを提供する。
自動運転車(SDV)は、おそらく準最適データセットの振る舞いよりも優れるポリシーを学ぶ。
これはモデルベースのオフラインRLアプローチの使用を動機付け、プランニングを活用する。
論文 参考訳(メタデータ) (2021-11-22T10:37:52Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。