論文の概要: Delphi: Towards Machine Ethics and Norms
- arxiv url: http://arxiv.org/abs/2110.07574v1
- Date: Thu, 14 Oct 2021 17:38:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 13:52:15.026623
- Title: Delphi: Towards Machine Ethics and Norms
- Title(参考訳): Delphi: マシン倫理とノームを目指して
- Authors: Liwei Jiang, Jena D. Hwang, Chandra Bhagavatula, Ronan Le Bras,
Maxwell Forbes, Jon Borchardt, Jenny Liang, Oren Etzioni, Maarten Sap, Yejin
Choi
- Abstract要約: 機械倫理と規範に対する4つの根本的な課題を特定します。
私たちのプロトタイプモデルであるDelphiは、言語ベースのコモンセンス道徳的推論の強い可能性を実証しています。
我々は,機械用にカスタマイズされた道徳教科書であるCommonsense Norm Bankを提示する。
- 参考スコア(独自算出の注目度): 38.8316885346292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What would it take to teach a machine to behave ethically? While broad
ethical rules may seem straightforward to state ("thou shalt not kill"),
applying such rules to real-world situations is far more complex. For example,
while "helping a friend" is generally a good thing to do, "helping a friend
spread fake news" is not. We identify four underlying challenges towards
machine ethics and norms: (1) an understanding of moral precepts and social
norms; (2) the ability to perceive real-world situations visually or by reading
natural language descriptions; (3) commonsense reasoning to anticipate the
outcome of alternative actions in different contexts; (4) most importantly, the
ability to make ethical judgments given the interplay between competing values
and their grounding in different contexts (e.g., the right to freedom of
expression vs. preventing the spread of fake news).
Our paper begins to address these questions within the deep learning
paradigm. Our prototype model, Delphi, demonstrates strong promise of
language-based commonsense moral reasoning, with up to 92.1% accuracy vetted by
humans. This is in stark contrast to the zero-shot performance of GPT-3 of
52.3%, which suggests that massive scale alone does not endow pre-trained
neural language models with human values. Thus, we present Commonsense Norm
Bank, a moral textbook customized for machines, which compiles 1.7M examples of
people's ethical judgments on a broad spectrum of everyday situations. In
addition to the new resources and baseline performances for future research,
our study provides new insights that lead to several important open research
questions: differentiating between universal human values and personal values,
modeling different moral frameworks, and explainable, consistent approaches to
machine ethics.
- Abstract(参考訳): 機械に倫理的な振る舞いを教えるのに何が必要でしょうか。
広義の倫理的規則は簡単に言うように思えるが("thou shalt not kill")、現実の状況にそのような規則を適用することははるかに複雑である。
例えば、"helping a friend"は一般的には良いことですが、"helping a friend spread fake news"はそうではありません。
We identify four underlying challenges towards machine ethics and norms: (1) an understanding of moral precepts and social norms; (2) the ability to perceive real-world situations visually or by reading natural language descriptions; (3) commonsense reasoning to anticipate the outcome of alternative actions in different contexts; (4) most importantly, the ability to make ethical judgments given the interplay between competing values and their grounding in different contexts (e.g., the right to freedom of expression vs. preventing the spread of fake news).
我々の論文は、ディープラーニングパラダイムの中でこれらの問題に取り組み始めます。
私たちのプロトタイプモデルであるdelphiは、言語ベースの常識的推論の強い期待を示し、92.1%の精度で人間によって検証されている。
これは52.3%のGPT-3のゼロショット性能とは対照的であり、大規模だけでは人間の値を持つ事前学習されたニューラルネットワークモデルには耐えられないことを示唆している。
そこで本研究では,機械用にカスタマイズされた道徳教科書であるcommonsense norm bankを提案する。
今後の研究のための新たなリソースとベースラインのパフォーマンスに加えて、我々の研究は、普遍的な人的価値と個人的価値の差別化、異なる道徳的枠組みのモデリング、機械倫理への説明可能な一貫したアプローチなど、いくつかの重要なオープンな研究課題に導く新たな洞察を提供する。
関連論文リスト
- What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - The Moral Integrity Corpus: A Benchmark for Ethical Dialogue Systems [36.90292508433193]
道徳的判断は普遍的ではないので、道徳的偏見を緩和することは困難である。
Moral Integrity Corpusは38kの即応対の道徳的仮定を捉えている。
我々は、現在のニューラルネットワークモデルが、これまで見つからなかったインタラクションを合理的に記述する新しいRoTを自動生成できることを示します。
論文 参考訳(メタデータ) (2022-04-06T18:10:53Z) - Contextualized moral inference [12.574316678945195]
本稿では,道徳的ヴィグネットの直感的な判断をテキストベースで予測する手法を提案する。
文脈化された表現は、代替表現よりもかなり有利であることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:34:28Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。