論文の概要: When Is It Acceptable to Break the Rules? Knowledge Representation of
Moral Judgement Based on Empirical Data
- arxiv url: http://arxiv.org/abs/2201.07763v1
- Date: Wed, 19 Jan 2022 17:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 14:59:13.417557
- Title: When Is It Acceptable to Break the Rules? Knowledge Representation of
Moral Judgement Based on Empirical Data
- Title(参考訳): 規則を破ることはいつ受け入れられますか。
経験的データに基づく道徳的判断の知識表現
- Authors: Edmond Awad, Sydney Levine, Andrea Loreggia, Nicholas Mattei, Iyad
Rahwan, Francesca Rossi, Kartik Talamadupula, Joshua Tenenbaum, Max
Kleiman-Weiner
- Abstract要約: 人間の道徳心に関する最も注目すべきことの1つは、その柔軟性です。
今まで見たことのない事件について道徳的な判断を下すことができる。
事前に確立されたルールが破られるべきだと判断できる。
この柔軟性の獲得は、人間のような道徳的判断を解釈し、生み出すことができるAIシステムの開発における中心的な課題の1つだ。
- 参考スコア(独自算出の注目度): 33.58705831230163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most remarkable things about the human moral mind is its
flexibility. We can make moral judgments about cases we have never seen before.
We can decide that pre-established rules should be broken. We can invent novel
rules on the fly. Capturing this flexibility is one of the central challenges
in developing AI systems that can interpret and produce human-like moral
judgment. This paper details the results of a study of real-world decision
makers who judge whether it is acceptable to break a well-established norm:
``no cutting in line.'' We gather data on how human participants judge the
acceptability of line-cutting in a range of scenarios. Then, in order to
effectively embed these reasoning capabilities into a machine, we propose a
method for modeling them using a preference-based structure, which captures a
novel modification to standard ``dual process'' theories of moral judgment.
- Abstract(参考訳): 人間の道徳心の最も注目すべき点は、その柔軟性です。
これまでに見たことのない事件について 道徳的判断をすることができる
確立済みのルールは破られるべきだと判断できます。
私たちはすぐに新しいルールを発明できる。
この柔軟性の獲得は、人間のような道徳的判断を解釈し、生み出すことができるAIシステムの開発における中心的な課題の1つだ。
本稿では,確立された規範を破ることが許容できるかどうかを判断する実世界の意思決定者の調査結果について詳述する。
様々なシナリオにおいて、人間の参加者がラインカットの受理性を判断する方法についてのデータを集めます。
そこで,これらの推論能力を機械に効果的に組み込むために,モラル判断の標準「二重過程」理論の新たな修正を捉えた選好ベースの構造を用いてモデル化する手法を提案する。
関連論文リスト
- Learning Machine Morality through Experience and Interaction [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Morality, Machines and the Interpretation Problem: A value-based,
Wittgensteinian approach to building Moral Agents [0.0]
機械に道徳性を持たせようとする試みは、我々が解釈問題と呼ぶものである。
我々は、マシンに与えるいかなるルールも、道徳的に不適切な方法で無限の解釈に開放されていると主張する。
論文 参考訳(メタデータ) (2021-03-03T22:34:01Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。