論文の概要: Learning to Drive Ethically: Embedding Moral Reasoning into Autonomous Driving
- arxiv url: http://arxiv.org/abs/2508.14926v1
- Date: Tue, 19 Aug 2025 14:24:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.025612
- Title: Learning to Drive Ethically: Embedding Moral Reasoning into Autonomous Driving
- Title(参考訳): 倫理的に運転する学習: モラル推論を自律運転に組み込む
- Authors: Dianzhao Li, Ostap Okhrin,
- Abstract要約: 本稿では,道徳的考察と標準的な運転目標を統合した階層型セーフ強化学習フレームワークを提案する。
決定レベルでは、衝突確率と危害を組み合わせた複合的倫理的リスクコストを用いてセーフRLエージェントを訓練し、高レベルな運動目標を生成する。
実行レベルでは、Proportional-Integral-Derivativeコントローラと組み合わせたパスプランニングが、これらのターゲットをスムーズで実現可能なトラジェクトリに変換する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles hold great promise for reducing traffic fatalities and improving transportation efficiency, yet their widespread adoption hinges on embedding robust ethical reasoning into routine and emergency maneuvers. Here, we present a hierarchical Safe Reinforcement Learning (Safe RL) framework that explicitly integrates moral considerations with standard driving objectives. At the decision level, a Safe RL agent is trained using a composite ethical risk cost, combining collision probability and harm severity, to generate high-level motion targets. A dynamic Prioritized Experience Replay mechanism amplifies learning from rare but critical, high-risk events. At the execution level, polynomial path planning coupled with Proportional-Integral-Derivative (PID) and Stanley controllers translates these targets into smooth, feasible trajectories, ensuring both accuracy and comfort. We train and validate our approach on rich, real-world traffic datasets encompassing diverse vehicles, cyclists, and pedestrians, and demonstrate that it outperforms baseline methods in reducing ethical risk and maintaining driving performance. To our knowledge, this is the first study of ethical decision-making for autonomous vehicles via Safe RL in real-world scenarios. Our results highlight the potential of combining formal control theory and data-driven learning to advance ethically accountable autonomy in complex, human-mixed traffic environments.
- Abstract(参考訳): 自動運転車は交通事故を減らし、交通効率を向上させるという大きな約束を持っているが、彼らの広く採用されているのは、厳格な倫理的理由を日常的および緊急行動に組み込むことだ。
本稿では,道徳的考察と標準的な運転目標を明確に統合する,階層型セーフ強化学習(Safe RL)フレームワークを提案する。
決定レベルでは、衝突確率と有害度を組み合わせた複合的倫理的リスクコストを用いてセーフRLエージェントを訓練し、高レベルな運動目標を生成する。
動的優先順位付けされた体験再生機構は、まれだがクリティカルでリスクの高いイベントからの学習を増幅する。
実行レベルでは、PID(Proportional-Integral-Derivative)とStanleyコントローラを組み合わせた多項式パスプランニングが、これらのターゲットをスムーズで実現可能な軌道に変換し、正確性と快適性を確保する。
我々は、多様な車両、サイクリスト、歩行者を含む、リッチで現実世界の交通データセットに対する我々のアプローチを訓練し、検証し、倫理的リスクを低減し、運転性能を維持する上で、ベースラインの手法より優れていることを実証する。
私たちの知る限りでは、現実世界のシナリオにおけるSafe RLによる自動運転車の倫理的意思決定に関する最初の研究である。
本研究は, 複雑な混在交通環境において, 形式制御理論とデータ駆動学習を組み合わせることにより, 倫理的に説明可能な自律性を向上する可能性を強調した。
関連論文リスト
- Toward Safety-First Human-Like Decision Making for Autonomous Vehicles in Time-Varying Traffic Flow [19.366456768621365]
このフレームワークは、他の道路利用者の意図推論のための空間的注意(S-TA)機構、行動規制のための社会的コンプライアンス推定モジュール、Deep Evolutionary Reinforcement Learning(DERL)モデルを統合する。
SF-HLDMフレームワークは、自律運転AIエージェントが決定パラメータを動的に調整し、安全マージンを維持し、文脈的に適切な運転行動に固執することを可能にする。
論文 参考訳(メタデータ) (2025-06-17T13:28:19Z) - VL-SAFE: Vision-Language Guided Safety-Aware Reinforcement Learning with World Models for Autonomous Driving [1.9242820889313577]
強化学習(RL)に基づく自律運転政策学習は、限界に直面している。
RLはしばしば複雑な運転コンテキストにおける「安全」の意味の真の意味をつかむのに失敗する。
本稿では,VLM(Vision-Language Model)-as-as-safety-guidanceパラダイムを用いた世界モデルベースの安全なRLフレームワークであるVL-SAFEを提案する。
論文 参考訳(メタデータ) (2025-05-22T08:29:59Z) - RADE: Learning Risk-Adjustable Driving Environment via Multi-Agent Conditional Diffusion [17.46462636610847]
リスク・ドライビング・環境(RADE)は、統計的に現実的でリスク調整可能な交通シーンを生成するシミュレーション・フレームワークである。
RADEはデータから直接リスク条件の行動を学び、コントロール可能なリスクレベルと自然主義的なマルチエージェントインタラクションを保存する。
RADEを実世界のrounDデータセットで検証し、様々なリスクレベルにわたって統計的リアリズムを保存することを示した。
論文 参考訳(メタデータ) (2025-05-06T04:41:20Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
我々は、構造化されていない知識と構造化されていない知識の両方を取り入れることで、MLLMベースの自動運転を強化するフレームワークであるSafeAutoを提案する。
安全知識を明示的に統合するため,交通ルールを一階述語論理に変換する推論コンポーネントを開発した。
我々のマルチモーダル検索・拡張生成モデルは、過去の運転経験から学ぶために、ビデオ、制御信号、環境特性を活用する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - SafeDrive: Knowledge- and Data-Driven Risk-Sensitive Decision-Making for Autonomous Vehicles with Large Language Models [14.790308656087316]
SafeDriveは、自律運転の安全性と適応性を高めるための、知識とデータ駆動型リスクに敏感な意思決定フレームワークである。
知識駆動型洞察と適応学習機構を統合することにより、不確実な条件下での堅牢な意思決定を保証する。
論文 参考訳(メタデータ) (2024-12-17T16:45:27Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by Reality [46.909086734963665]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。