論文の概要: Moral Testing of Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2505.03683v1
- Date: Tue, 06 May 2025 16:29:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.483574
- Title: Moral Testing of Autonomous Driving Systems
- Title(参考訳): 自律走行システムのモーラルテスト
- Authors: Wenbing Tang, Mingfei Cheng, Yuan Zhou, Yang Liu,
- Abstract要約: 自律運転システム(ADS)のモラルテストは、普遍的なモラル原理が欠如しているため、ほぼ不可能である。
本稿では、まず、既存の道徳実験や社会科学理論から派生した道徳的メタプリンシプルの集合を抽出し、ADSの広く認識され、常識的な道徳的価値を捉えることを目的とする。
本稿では,潜在的な道徳的問題を体系的に同定するメタモルフィックテストフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.716255501861388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Driving System (ADS) testing plays a crucial role in their development, with the current focus primarily on functional and safety testing. However, evaluating the non-functional morality of ADSs, particularly their decision-making capabilities in unavoidable collision scenarios, is equally important to ensure the systems' trustworthiness and public acceptance. Unfortunately, testing ADS morality is nearly impossible due to the absence of universal moral principles. To address this challenge, this paper first extracts a set of moral meta-principles derived from existing moral experiments and well-established social science theories, aiming to capture widely recognized and common-sense moral values for ADSs. These meta-principles are then formalized as quantitative moral metamorphic relations, which act as the test oracle. Furthermore, we propose a metamorphic testing framework to systematically identify potential moral issues. Finally, we illustrate the implementation of the framework and present typical violation cases using the VIRES VTD simulator and its built-in ADS.
- Abstract(参考訳): 自律運転システム(ADS)テストは開発において重要な役割を担い、現在は主に機能テストと安全性テストに重点を置いている。
しかし、ADSの非機能的モラル、特に避けられない衝突シナリオにおける意思決定能力を評価することは、システムの信頼性と公衆の受け入れを確保するためにも同様に重要である。
残念ながら、ADSの道徳性をテストすることは、普遍的な道徳原理が欠如しているためほぼ不可能である。
この課題に対処するために,本稿はまず,既存の道徳実験や社会科学理論から派生した道徳的メタ原理の集合を抽出し,ADSの広く認識され,常識的な道徳的価値を捉えることを目的とする。
これらのメタプリンシプルは、テストオラクルとして機能する定量的道徳的メタモルフィック関係として形式化される。
さらに,潜在的な道徳的問題を体系的に同定するメタモルフィックテストフレームワークを提案する。
最後に、VIRES VTDシミュレータと組込みADSを用いて、フレームワークの実装と典型的な違反事例について説明する。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Hybrid Approaches for Moral Value Alignment in AI Agents: a Manifesto [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
連続体としてモデル化された機械に道徳を導入する問題に対する既存のアプローチの体系化を提供する。
我々は、適応可能で堅牢だが制御可能で解釈可能なエージェントシステムを構築するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。