論文の概要: Uncertain Machine Ethics Planning
- arxiv url: http://arxiv.org/abs/2505.04352v1
- Date: Wed, 07 May 2025 12:03:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.063927
- Title: Uncertain Machine Ethics Planning
- Title(参考訳): 不確実なマシン倫理計画
- Authors: Simon Kolker, Louise A. Dennis, Ramon Fraga Pereira, Mengwei Xu,
- Abstract要約: マシン倫理上の決定は、決定に対する不確実性の影響を考慮すべきである。
結果の評価は1つ以上の道徳理論を呼び起こし、判断に矛盾するかもしれない。
我々は,Sven-Ove Hansson の仮説的ふりかえり法を用いて,この問題を多元的短経路問題として定式化する。
- 参考スコア(独自算出の注目度): 6.10614292605722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Ethics decisions should consider the implications of uncertainty over decisions. Decisions should be made over sequences of actions to reach preferable outcomes long term. The evaluation of outcomes, however, may invoke one or more moral theories, which might have conflicting judgements. Each theory will require differing representations of the ethical situation. For example, Utilitarianism measures numerical values, Deontology analyses duties, and Virtue Ethics emphasises moral character. While balancing potentially conflicting moral considerations, decisions may need to be made, for example, to achieve morally neutral goals with minimal costs. In this paper, we formalise the problem as a Multi-Moral Markov Decision Process and a Multi-Moral Stochastic Shortest Path Problem. We develop a heuristic algorithm based on Multi-Objective AO*, utilising Sven-Ove Hansson's Hypothetical Retrospection procedure for ethical reasoning under uncertainty. Our approach is validated by a case study from Machine Ethics literature: the problem of whether to steal insulin for someone who needs it.
- Abstract(参考訳): マシン倫理上の決定は、決定に対する不確実性の影響を考慮すべきである。
長期的な望ましい結果を得るためには、一連の行動に関する決定をしなければならない。
しかし、結果の評価は1つ以上の道徳理論を呼び起こし、判断に矛盾する可能性がある。
それぞれの理論は、倫理的状況の異なる表現を必要とする。
例えば、Utilitarianismは数値を測り、Deontologyは義務を分析し、Virtue Ethicsは道徳的性格を強調している。
潜在的に矛盾する道徳的考察のバランスを取る一方で、例えば、最小のコストで道徳的に中立的な目標を達成するためには、決定を行う必要があるかもしれない。
本稿では,この問題をマルチモーラルマルコフ決定過程とマルチモーラル確率的短経路問題として定式化する。
我々は,Sven-Ove Hanssonの仮説レトロスペクティブ手法を不確実性を考慮した倫理的推論に応用した多目的AO*に基づくヒューリスティックアルゴリズムを開発した。
われわれのアプローチは、マシン倫理文学のケーススタディによって検証されている: 必要な人のためにインスリンを盗むかどうかの問題。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Uncertain Machine Ethical Decisions Using Hypothetical Retrospection [8.064201367978066]
本稿では,Sven Ove Hansson が開発した仮説的ふりかえり議論手法を提案する。
アクションは潜在的な結果の分岐セットで表現され、それぞれが状態、ユーティリティを持ち、数値または詩的な確率の推定値を持つ。
機械倫理システムの様々な要件を満たすような予備的な枠組みを導入する。
論文 参考訳(メタデータ) (2023-05-02T13:54:04Z) - On the Computational Complexity of Ethics: Moral Tractability for Minds
and Machines [0.0]
倫理領域の問題を解決するために人工知能(AI)が使えるかどうかについての議論は、主に人間の能力の観点からAIができることとできないことによって進められてきた。
本稿では,計算システムにできることやできないことに基づいて,どのようなモラルマシンが可能であるかを検討する。
論文 参考訳(メタデータ) (2023-02-08T17:39:58Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Moral Dilemmas for Moral Machines [0.0]
これは、道徳的ジレンマの目的を理解できないため、哲学的思考実験の誤用であると私は主張する。
機械倫理における道徳的ジレンマの利用は適切であり、機械学習の文脈で生じる新しい状況は、倫理における哲学的作業にいくらかの光を当てることができる。
論文 参考訳(メタデータ) (2022-03-11T18:24:39Z) - Have a break from making decisions, have a MARS: The Multi-valued Action
Reasoning System [0.0]
多値行動推論システム(Multi-valued Action Reasoning System、MARS)は、AIのための価値に基づく倫理的意思決定モデルである。
利用可能な行動のセットと根底にある道徳的パラダイムが与えられた場合、MARSを使用することで、倫理的に好まれる行動を特定することができる。
論文 参考訳(メタデータ) (2021-09-07T18:44:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。