論文の概要: Automated Driving Without Ethics: Meaning, Design and Real-World
Implementation
- arxiv url: http://arxiv.org/abs/2308.04760v1
- Date: Wed, 9 Aug 2023 07:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 14:40:34.987919
- Title: Automated Driving Without Ethics: Meaning, Design and Real-World
Implementation
- Title(参考訳): 倫理のない自動運転: 意味、設計、実世界の実装
- Authors: Katherine Evans (IRCAI), Nelson de Moura (ASTRA), Raja Chatila (ISIR),
St\'ephane Chauvier (SND)
- Abstract要約: このアプローチの目標は、モラル理論が自動車にどう振る舞う必要があるかを定義することではなく、自動車の意思決定の社会的受容性を評価するためのツールを提供することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ethics of automated vehicles (AV) has received a great amount of
attention in recent years, specifically in regard to their decisional policies
in accident situations in which human harm is a likely consequence. After a
discussion about the pertinence and cogency of the term 'artificial moral
agent' to describe AVs that would accomplish these sorts of decisions, and
starting from the assumption that human harm is unavoidable in some situations,
a strategy for AV decision making is proposed using only pre-defined parameters
to characterize the risk of possible accidents and also integrating the Ethical
Valence Theory, which paints AV decision-making as a type of claim mitigation,
into multiple possible decision rules to determine the most suitable action
given the specific environment and decision context. The goal of this approach
is not to define how moral theory requires vehicles to behave, but rather to
provide a computational approach that is flexible enough to accommodate a
number of human 'moral positions' concerning what morality demands and what
road users may expect, offering an evaluation tool for the social acceptability
of an automated vehicle's decision making.
- Abstract(参考訳): 自動車の倫理(AV)は近年大きな注目を集めており、特に人間の危害が引き起こされる可能性のある事故時の意思決定方針について注意が向けられている。
After a discussion about the pertinence and cogency of the term 'artificial moral agent' to describe AVs that would accomplish these sorts of decisions, and starting from the assumption that human harm is unavoidable in some situations, a strategy for AV decision making is proposed using only pre-defined parameters to characterize the risk of possible accidents and also integrating the Ethical Valence Theory, which paints AV decision-making as a type of claim mitigation, into multiple possible decision rules to determine the most suitable action given the specific environment and decision context.
このアプローチの目標は、モラル理論が自動車にどのように振る舞う必要があるかを定義することではなく、人間の「道徳的位置」に適合するフレキシブルな計算手法を提供することであり、自動車の意思決定の社会的受容性を評価するための評価ツールを提供することである。
関連論文リスト
- Conformal Decision Theory: Safe Autonomous Decisions from Imperfect Predictions [80.34972679938483]
不完全な機械学習予測にも拘わらず、安全な自律的意思決定を実現するためのフレームワークであるコンフォーマル決定理論を導入する。
私たちのアルゴリズムが生み出す決定は、リスクが低いという証明可能な統計的保証があるという意味では安全です。
実験は、人間のまわりのロボットの動き計画、自動株式取引、ロボット製造において、我々のアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-09T17:59:30Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safe Explicable Planning [3.3869539907606603]
安全計画(SEP:Safe Explicable Planning)を提案する。
提案手法は,複数のモデルから派生した複数の対象の考察を一般化する。
これらの手法の望ましい理論的性質を検証するための公式な証明を提供する。
論文 参考訳(メタデータ) (2023-04-04T21:49:02Z) - Intention-Aware Decision-Making for Mixed Intersection Scenarios [1.2891210250935146]
本稿では,歩行者と自動走行車とのインタラクションを扱うために,ホワイトボックスを意識した意思決定手法を提案する。
意思決定の自動パラメータ化を可能にする設計フレームワークが開発されている。
論文 参考訳(メタデータ) (2023-03-29T13:23:51Z) - Predicting Autonomous Vehicle Collision Injury Severity Levels for
Ethical Decision Making and Path Planning [1.713291434132985]
自動運転車(AV)の開発は急速に進展しており、今後20年以内に私たちの社会の中心となるでしょう。
AVインシデントが発生した場合、例えば歩行者グループへの衝突か堅固な障壁かを判断するなど、倫理的な決定を必要とする決定を行う必要がある。
AVがそのような倫理的な意思決定と経路計画を行うためには、AV上でリアルタイムに使用される状況のシミュレーションモデルが必要である。
これらのモデルは、所定の衝突損傷重度レベルに基づいて経路計画と倫理的意思決定を可能にする。
論文 参考訳(メタデータ) (2022-12-16T15:39:44Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - Generalizing Decision Making for Automated Driving with an Invariant
Environment Representation using Deep Reinforcement Learning [55.41644538483948]
現在のアプローチは、トレーニングデータを超えてよく一般化されないか、または可変数のトラフィック参加者を考慮することができない。
本研究では,エゴ車の観点から不変環境表現を提案する。
この抽象化により,エージェントが未確認シナリオに対してうまく一般化できることが示される。
論文 参考訳(メタデータ) (2021-02-12T20:37:29Z) - Machine Ethics and Automated Vehicles [0.0]
完全自動化された車両は、人間のドライバーの監視なしにこのリスクを割り当てる方法を継続的に決めなければならない。
自動走行車における道徳的行動の概念を導入し、予想される批判に対する反応を通じてこの分野の研究の必要性を論じ、機械的倫理学や道徳的モデリング研究の応用について論じる。
論文 参考訳(メタデータ) (2020-10-29T15:14:47Z) - Can Autonomous Vehicles Identify, Recover From, and Adapt to
Distribution Shifts? [104.04999499189402]
トレーニング外の配布(OOD)シナリオは、デプロイ時にエージェントを学ぶ上で一般的な課題である。
インプロバスト模倣計画(RIP)と呼ばれる不確実性を考慮した計画手法を提案する。
提案手法は,OODシーンにおける過信および破滅的な外挿を低減し,分布変化を検知し,回復することができる。
分散シフトを伴うタスク群に対する駆動エージェントのロバスト性を評価するために,自動走行車ノベルシーンベンチマークであるtexttCARNOVEL を導入する。
論文 参考訳(メタデータ) (2020-06-26T11:07:32Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。