論文の概要: Morality, Machines and the Interpretation Problem: A value-based,
Wittgensteinian approach to building Moral Agents
- arxiv url: http://arxiv.org/abs/2103.02728v1
- Date: Wed, 3 Mar 2021 22:34:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 15:08:34.464656
- Title: Morality, Machines and the Interpretation Problem: A value-based,
Wittgensteinian approach to building Moral Agents
- Title(参考訳): 道徳・機械・解釈問題--モラルエージェント構築のための価値に基づくウィトゲンシュタイン的アプローチ
- Authors: Cosmin Badea, Gregory Artus
- Abstract要約: 機械に道徳性を持たせようとする試みは、我々が解釈問題と呼ぶものである。
我々は、マシンに与えるいかなるルールも、道徳的に不適切な方法で無限の解釈に開放されていると主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that the attempt to build morality into machines is subject to what
we call the Interpretation problem, whereby any rule we give the machine is
open to infinite interpretation in ways that we might morally disapprove of,
and that the interpretation problem in Artificial Intelligence is an
illustration of Wittgenstein's general claim that no rule can contain the
criteria for its own application. Using games as an example, we attempt to
define the structure of normative spaces and argue that any rule-following
within a normative space is guided by values that are external to that space
and which cannot themselves be represented as rules. In light of this problem,
we analyse the types of mistakes an artificial moral agent could make and we
make suggestions about how to build morality into machines by getting them to
interpret the rules we give in accordance with these external values, through
explicit moral reasoning and the presence of structured values, the adjustment
of causal power assigned to the agent and interaction with human agents, such
that the machine develops a virtuous character and the impact of the
interpretation problem is minimised.
- Abstract(参考訳): 私たちは、機械に道徳性を構築する試みは、私たちが解釈問題と呼ぶもので、私たちが機械に与えた規則は、私たちが道徳的に否定する可能性のある方法で無限の解釈にオープンであり、人工知能の解釈問題は、ルールが独自の適用の基準を含めることができないというウィトゲンシュタインの一般的な主張の例であると主張しています。
ゲームを例として、規範空間の構造を定義し、規範空間内の任意のルールフォローは、その空間の外にある値によって導かれ、それ自身は規則として表現できないと主張する。
In light of this problem, we analyse the types of mistakes an artificial moral agent could make and we make suggestions about how to build morality into machines by getting them to interpret the rules we give in accordance with these external values, through explicit moral reasoning and the presence of structured values, the adjustment of causal power assigned to the agent and interaction with human agents, such that the machine develops a virtuous character and the impact of the interpretation problem is minimised.
関連論文リスト
- Why Machines Can't Be Moral: Turing's Halting Problem and the Moral Limits of Artificial Intelligence [0.0]
私は、道徳的原則がボトムアップアプローチによって推測される明示的な倫理的機械は、人間のような道徳的推論を再現できないと論じます。
アラン・チューリング(英語版)の計算理論を利用して、モラル推論が停止問題によりこれらの機械によって計算可能であることを実証する。
論文 参考訳(メタデータ) (2024-07-24T17:50:24Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - The Moral Integrity Corpus: A Benchmark for Ethical Dialogue Systems [36.90292508433193]
道徳的判断は普遍的ではないので、道徳的偏見を緩和することは困難である。
Moral Integrity Corpusは38kの即応対の道徳的仮定を捉えている。
我々は、現在のニューラルネットワークモデルが、これまで見つからなかったインタラクションを合理的に記述する新しいRoTを自動生成できることを示します。
論文 参考訳(メタデータ) (2022-04-06T18:10:53Z) - When Is It Acceptable to Break the Rules? Knowledge Representation of
Moral Judgement Based on Empirical Data [33.58705831230163]
人間の道徳心に関する最も注目すべきことの1つは、その柔軟性です。
今まで見たことのない事件について道徳的な判断を下すことができる。
事前に確立されたルールが破られるべきだと判断できる。
この柔軟性の獲得は、人間のような道徳的判断を解釈し、生み出すことができるAIシステムの開発における中心的な課題の1つだ。
論文 参考訳(メタデータ) (2022-01-19T17:58:42Z) - Contextualized moral inference [12.574316678945195]
本稿では,道徳的ヴィグネットの直感的な判断をテキストベースで予測する手法を提案する。
文脈化された表現は、代替表現よりもかなり有利であることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:34:28Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Reinforcement Learning Under Moral Uncertainty [13.761051314923634]
機械学習の野心的な目標は、倫理的に振る舞うエージェントを作ることだ。
倫理的エージェントは、特定の道徳理論の下で正しい行動に報いることによって訓練することができるが、道徳性の本質について広く意見の相違がある。
本稿では、競合するデシダラタの異なる点を実現するための2つのトレーニング手法を提案し、モラルの不確実性の下で行動するための単純な環境におけるエージェントを訓練する。
論文 参考訳(メタデータ) (2020-06-08T16:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。