論文の概要: Toward equipping Artificial Moral Agents with multiple ethical theories
- arxiv url: http://arxiv.org/abs/2003.00935v1
- Date: Mon, 2 Mar 2020 14:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 05:43:38.174778
- Title: Toward equipping Artificial Moral Agents with multiple ethical theories
- Title(参考訳): 複数の倫理理論を持つ人工モラルエージェントの装備に向けて
- Authors: George Rautenbach and C. Maria Keet
- Abstract要約: 人工道徳エージェント (Artificial Moral Agents, AMA) は、コンピュータ科学の分野であり、人間の行動に類似した道徳的な決定を下す自律機械を作ることを目的としている。
研究と設計は、基礎として、いかなる特定の規範的倫理理論でも、少なくとも1つの特定の規範的倫理理論でも行われてきた。
これは、AMAの機能能力と汎用性を制限し、結果として限られた数の人々が同意する道徳的な結果を引き起こすため、問題となる。
我々は,一般規範的倫理理論のための3層モデルを構築し,AMAが推論時に使用する倫理的視点のシリアライズに利用することができる。
- 参考スコア(独自算出の注目度): 1.5736899098702972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Moral Agents (AMA's) is a field in computer science with the
purpose of creating autonomous machines that can make moral decisions akin to
how humans do. Researchers have proposed theoretical means of creating such
machines, while philosophers have made arguments as to how these machines ought
to behave, or whether they should even exist. Of the currently theorised AMA's,
all research and design has been done with either none or at most one specified
normative ethical theory as basis. This is problematic because it narrows down
the AMA's functional ability and versatility which in turn causes moral
outcomes that a limited number of people agree with (thereby undermining an
AMA's ability to be moral in a human sense). As solution we design a
three-layer model for general normative ethical theories that can be used to
serialise the ethical views of people and businesses for an AMA to use during
reasoning. Four specific ethical norms (Kantianism, divine command theory,
utilitarianism, and egoism) were modelled and evaluated as proof of concept for
normative modelling. Furthermore, all models were serialised to XML/XSD as
proof of support for computerisation.
- Abstract(参考訳): 人工道徳エージェント (Artificial Moral Agents, AMA) は、コンピュータ科学の分野であり、人間の行動に類似した道徳的な決定を下す自律機械を作ることを目的としている。
研究者はそのような機械を作る理論的方法を提案したが、哲学者はこれらの機械がどのように振る舞うべきか、あるいは存在すべきかどうかを議論した。
現在理論化されたAMAの内、すべての研究と設計は、基礎として特定された規範的倫理理論のいずれかで行われてきた。
これは、AMAの機能能力と万能性を狭め、その結果、限られた数の人々が同意する道徳的な結果をもたらすためである(それによって、AMAの道徳的能力は人間的な意味で損なわれる)。
解決策として、amaが推論中に使用する人々やビジネスの倫理観をシリアライズするために使用できる一般的な規範的倫理理論のための3層モデルを設計します。
4つの特定の倫理的規範(カンティアニズム、神聖な命令理論、実用主義、エゴ主義)をモデル化し、規範的モデリングの概念実証として評価した。
さらに、全てのモデルはコンピュータ化のサポートの証明としてXML/XSDにシリアライズされた。
関連論文リスト
- Why Machines Can't Be Moral: Turing's Halting Problem and the Moral Limits of Artificial Intelligence [0.0]
私は、道徳的原則がボトムアップアプローチによって推測される明示的な倫理的機械は、人間のような道徳的推論を再現できないと論じます。
アラン・チューリング(英語版)の計算理論を利用して、モラル推論が停止問題によりこれらの機械によって計算可能であることを実証する。
論文 参考訳(メタデータ) (2024-07-24T17:50:24Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Towards Theory-based Moral AI: Moral AI with Aggregating Models Based on
Normative Ethical Theory [7.412445894287708]
道徳的AIは哲学と人工知能の分野で研究されている。
近年のAIの発展により、AIを道徳的に実装する必要がますます高まっている。
論文 参考訳(メタデータ) (2023-06-20T10:22:24Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Automated Kantian Ethics: A Faithful Implementation [0.0]
私は、カント哲学の伝統に忠実な自動カント倫理の実装を提示します。
私は、Dyadic Deontic Logic におけるカントの圏論的命令を形式化し、イザベルの定理証明器でこの形式化を実装し、私の実装がカント倫理の期待された性質とどのように協調するかを評価するためのテストフレームワークを開発する。
私のシステムは、哲学的に成熟した倫理的AIエージェントへの初期のステップであり、哲学文学に根ざしているため、複雑な倫理的ジレンマにおいてニュアンスな判断を下すことができる。
論文 参考訳(メタデータ) (2022-07-20T19:09:15Z) - Does Moral Code Have a Moral Code? Probing Delphi's Moral Philosophy [5.760388205237227]
本稿では,Allen AI Delphiモデルについて,標準化されたモラル性アンケートを用いて検討する。
いくつかの矛盾にもかかわらず、デルフィは注釈プロセスに関わる人口集団に関する道徳的原則を反映する傾向にある。
論文 参考訳(メタデータ) (2022-05-25T13:37:56Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。