論文の概要: Integrating Legal and Logical Specifications in Perception, Prediction, and Planning for Automated Driving: A Survey of Methods
- arxiv url: http://arxiv.org/abs/2510.25386v1
- Date: Wed, 29 Oct 2025 10:57:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 18:06:02.037599
- Title: Integrating Legal and Logical Specifications in Perception, Prediction, and Planning for Automated Driving: A Survey of Methods
- Title(参考訳): 自動運転の知覚・予測・計画における法・論理的仕様の統合:方法の調査
- Authors: Kumar Manas, Mert Keser, Alois Knoll,
- Abstract要約: 本調査は, 自動走行システムの認識, 予測, 計画モジュールに法的および論理的仕様を統合した現行の方法論の分析を行う。
論理ベースのフレームワークから計算法的推論アプローチまで,さまざまな手法を体系的に検討する。
中心的な発見は、知覚的信頼性、法的コンプライアンス、意思決定の正当性との交差において重大な課題が発生することである。
- 参考スコア(独自算出の注目度): 30.541309308318517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This survey provides an analysis of current methodologies integrating legal and logical specifications into the perception, prediction, and planning modules of automated driving systems. We systematically explore techniques ranging from logic-based frameworks to computational legal reasoning approaches, emphasizing their capability to ensure regulatory compliance and interpretability in dynamic and uncertain driving environments. A central finding is that significant challenges arise at the intersection of perceptual reliability, legal compliance, and decision-making justifiability. To systematically analyze these challenges, we introduce a taxonomy categorizing existing approaches by their theoretical foundations, architectural implementations, and validation strategies. We particularly focus on methods that address perceptual uncertainty and incorporate explicit legal norms, facilitating decisions that are both technically robust and legally defensible. The review covers neural-symbolic integration methods for perception, logic-driven rule representation, and norm-aware prediction strategies, all contributing toward transparent and accountable autonomous vehicle operation. We highlight critical open questions and practical trade-offs that must be addressed, offering multidisciplinary insights from engineering, logic, and law to guide future developments in legally compliant autonomous driving systems.
- Abstract(参考訳): 本調査は, 自動走行システムの認識, 予測, 計画モジュールに法的, 論理的仕様を統合した現行の方法論の分析を行う。
動的かつ不確実な運転環境における規制コンプライアンスと解釈可能性を保証する能力を強調し、論理ベースのフレームワークから計算法的推論アプローチまで幅広い手法を体系的に検討する。
中心的な発見は、知覚的信頼性、法的コンプライアンス、意思決定の正当性との交差において重大な課題が発生することである。
これらの課題を体系的に分析するために,既存のアプローチを理論的基盤,アーキテクチャ実装,検証戦略によって分類する分類法を導入する。
特に、知覚の不確実性に対処し、明示的な法的規範を取り入れ、技術的に堅牢で法的に保護可能な決定を促進する方法に重点を置いています。
このレビューでは、知覚、論理駆動型ルール表現、ノルム認識予測戦略に対するニューラルシンボリックな統合手法を取り上げ、いずれも透明で説明可能な自動運転車の運転に寄与している。
我々は、技術的、論理学、法学からの多分野的な洞察を提供し、法的に準拠する自動運転システムにおける将来の発展を導くために、対処すべき重要なオープンな質問と実践的なトレードオフを強調します。
関連論文リスト
- Empowering Real-World: A Survey on the Technology, Practice, and Evaluation of LLM-driven Industry Agents [63.03252293761656]
本稿では,大規模言語モデル(LLM)に基づく産業エージェントの技術,応用,評価手法を体系的にレビューする。
エージェント能力の進歩を支える3つの重要な技術柱として,記憶,計画,ツール利用について検討する。
本稿では,デジタル工学,科学的発見,具体的インテリジェンス,協調ビジネス実行,複雑なシステムシミュレーションといった実世界の領域における産業エージェントの応用の概要について述べる。
論文 参考訳(メタデータ) (2025-10-20T12:46:55Z) - Argumentation-Based Explainability for Legal AI: Comparative and Regulatory Perspectives [0.9668407688201359]
人工知能(AI)システムは、法的文脈においてますます多くデプロイされている。
いわゆる「ブラックボックス問題」は、自動意思決定の正当性を損なう。
XAIは透明性を高めるための様々な方法を提案している。
論文 参考訳(メタデータ) (2025-10-13T07:19:15Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Reasoning Under Threat: Symbolic and Neural Techniques for Cybersecurity Verification [0.0]
本調査では,サイバーセキュリティにおける自動推論の役割について概観する。
我々は、SOTAツールとフレームワークを調べ、ニューラルシンボリック推論のためのAIとの統合を調査し、重要な研究ギャップを浮き彫りにする。
本稿は,安全なシステム開発を促進することを目的とした,先進的な研究の方向性の集合をまとめてまとめる。
論文 参考訳(メタデータ) (2025-03-27T11:41:53Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - On the Need and Applicability of Causality for Fairness: A Unified Framework for AI Auditing and Legal Analysis [0.0]
アルゴリズム的差別に対処する上での因果推論の重要性について考察する。
ランドマークの事例と規制の枠組みをレビューすることで、原因的主張の証明に固有の課題を説明する。
論文 参考訳(メタデータ) (2022-07-08T10:37:22Z) - Ethical Assurance: A practical approach to the responsible design,
development, and deployment of data-driven technologies [0.0]
この記事では、データサイエンスとAIにおける責任ある研究とイノベーションに関する学際的プロジェクトへのコントリビューションを提供する。
まず、アルゴリズム評価の実践的なメカニズムを確立するための現在の取り組みについて批判的な分析を行う。
第二に、議論に基づく保証の方法論へのアクセシビリティな導入を提供する。
第3に,我々は「倫理的保証」と呼ぶ,議論に基づく保証の新たなバージョンを確立する。
論文 参考訳(メタデータ) (2021-10-11T11:21:49Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。