論文の概要: Principles and Reasons Behind Automated Vehicle Decisions in Ethically Ambiguous Everyday Scenarios
- arxiv url: http://arxiv.org/abs/2507.13837v1
- Date: Fri, 18 Jul 2025 11:52:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.271883
- Title: Principles and Reasons Behind Automated Vehicle Decisions in Ethically Ambiguous Everyday Scenarios
- Title(参考訳): 倫理的に曖昧な日常シナリオにおける自動車両決定の背景にある原則と理由
- Authors: Lucas Elbert Suryana, Simeon Calvert, Arkady Zgonnikov, Bart van Arem,
- Abstract要約: 本稿では、日常的かつ倫理的に曖昧なシナリオにおけるAV意思決定のための原則的概念的枠組みを提案する。
このフレームワークは、安全性を優先することで、動的で人間に沿った行動をサポートし、厳格な法的遵守が重要な価値を損なうような現実的な行動を可能にする。
- 参考スコア(独自算出の注目度): 4.244307111313931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated vehicles (AVs) increasingly encounter ethically ambiguous situations in everyday driving--scenarios involving conflicting human interests and lacking clearly optimal courses of action. While existing ethical models often focus on rare, high-stakes dilemmas (e.g., crash avoidance or trolley problems), routine decisions such as overtaking cyclists or navigating social interactions remain underexplored. This study addresses that gap by applying the tracking condition of Meaningful Human Control (MHC), which holds that AV behaviour should align with human reasons--defined as the values, intentions, and expectations that justify actions. We conducted qualitative interviews with 18 AV experts to identify the types of reasons that should inform AV manoeuvre planning. Thirteen categories of reasons emerged, organised across normative, strategic, tactical, and operational levels, and linked to the roles of relevant human agents. A case study on cyclist overtaking illustrates how these reasons interact in context, revealing a consistent prioritisation of safety, contextual flexibility regarding regulatory compliance, and nuanced trade-offs involving efficiency, comfort, and public acceptance. Based on these insights, we propose a principled conceptual framework for AV decision-making in routine, ethically ambiguous scenarios. The framework supports dynamic, human-aligned behaviour by prioritising safety, allowing pragmatic actions when strict legal adherence would undermine key values, and enabling constrained deviations when appropriately justified. This empirically grounded approach advances current guidance by offering actionable, context-sensitive design principles for ethically aligned AV systems.
- Abstract(参考訳): 自動運転車(AV)は、日常運転において倫理的に曖昧な状況に直面している。
既存の倫理モデルでは希少で高いジレンマ(例えば、衝突回避やトロリーの問題)に焦点を当てることが多いが、サイクリストを追い越したり、社会的相互作用をナビゲートしたりといった日常的な決定は未解決のままである。
本研究は,AV行動が行動を正当化する値,意図,期待として定義される人的理由に一致すべきであるとする,意味のある人的制御(MHC)の追跡条件を適用することにより,ギャップを解消するものである。
18名のAV専門家と質的なインタビューを行い,AVマヌーバー計画に影響を及ぼす要因のタイプを特定した。
理由の13のカテゴリが出現し、規範的、戦略的、戦術的、運用的なレベルにまたがって組織化され、関連する人間エージェントの役割と関連づけられた。
サイクリストのオーバーテイクに関するケーススタディでは、これらの理由がコンテキスト内でどのように相互作用するかを示し、安全の一貫性のある優先順位付け、規制の遵守に関する文脈的柔軟性、効率性、快適性、そして公共の受け入れを含む不適切なトレードオフを明らかにしている。
これらの知見に基づいて、日常的かつ倫理的に曖昧なシナリオにおけるAV意思決定のための原則的概念的枠組みを提案する。
このフレームワークは、安全性を優先し、厳格な法的遵守が重要な価値を損なうような現実的な行動を可能にし、適切に正当化された場合の制約付き逸脱を可能にする。
この経験に基づくアプローチは、倫理的に整合したAVシステムに対して、行動可能で文脈に敏感な設計原則を提供することによって、現在のガイダンスを前進させる。
関連論文リスト
- The Convergent Ethics of AI? Analyzing Moral Foundation Priorities in Large Language Models with a Multi-Framework Approach [6.0972634521845475]
本稿では,Reasoning and Intrinsic Moral Evaluation (PRIME)フレームワークについて紹介する。
PRIMEは、基本的な倫理的側面をまたいだ倫理的優先順位を分析するための包括的な方法論である。
我々はこのフレームワークを6つの主要な大規模言語モデル (LLM) に適用する。
論文 参考訳(メタデータ) (2025-04-27T14:26:48Z) - Position: We Need An Adaptive Interpretation of Helpful, Honest, and Harmless Principles [24.448749292993234]
Helpful, Honest, and Harmless(HHH)原則は、AIシステムを人間の価値と整合させるためのフレームワークである。
我々は,HHH原理の適応的解釈を論じ,多様なシナリオへの適応のための参照フレームワークを提案する。
この作業は、AIアライメントを改善するための実践的な洞察を提供し、HHH原則が現実のAIデプロイメントにおいて基礎的かつ運用的に有効であることを保証する。
論文 参考訳(メタデータ) (2025-02-09T22:41:24Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - Disciplining Deliberation: A Sociotechnical Perspective on Machine Learning Trade-offs [0.0]
人工知能における2つの顕著なトレードオフは、予測精度と公正性、予測精度と解釈可能性の間のものである。
一般的な解釈では、これらの形式的なトレードオフは、根底にある社会的価値の間の緊張と直接的に対応していると見なされている。
トレードオフの価値を検証するための社会技術的アプローチを紹介します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Automated Driving Without Ethics: Meaning, Design and Real-World
Implementation [0.0]
このアプローチの目標は、モラル理論が自動車にどう振る舞う必要があるかを定義することではなく、自動車の意思決定の社会的受容性を評価するためのツールを提供することである。
論文 参考訳(メタデータ) (2023-08-09T07:49:24Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。