論文の概要: Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes
- arxiv url: http://arxiv.org/abs/2008.09094v2
- Date: Wed, 24 Mar 2021 11:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 03:31:35.008831
- Title: Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes
- Title(参考訳): Scruples:3万2000件のリアルライフに関するコミュニティ倫理判断コーパス
- Authors: Nicholas Lourie, Ronan Le Bras, Yejin Choi
- Abstract要約: 記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
- 参考スコア(独自算出の注目度): 72.64975113835018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI systems become an increasing part of people's everyday lives, it
becomes ever more important that they understand people's ethical norms.
Motivated by descriptive ethics, a field of study that focuses on people's
descriptive judgments rather than theoretical prescriptions on morality, we
investigate a novel, data-driven approach to machine ethics.
We introduce Scruples, the first large-scale dataset with 625,000 ethical
judgments over 32,000 real-life anecdotes. Each anecdote recounts a complex
ethical situation, often posing moral dilemmas, paired with a distribution of
judgments contributed by the community members. Our dataset presents a major
challenge to state-of-the-art neural language models, leaving significant room
for improvement. However, when presented with simplified moral situations, the
results are considerably more promising, suggesting that neural models can
effectively learn simpler ethical building blocks.
A key take-away of our empirical analysis is that norms are not always
clean-cut; many situations are naturally divisive. We present a new method to
estimate the best possible performance on such tasks with inherently diverse
label distributions, and explore likelihood functions that separate intrinsic
from model uncertainty.
- Abstract(参考訳): AIシステムが人々の日常の生活の一部になるにつれて、人々の倫理的規範を理解することがますます重要になる。
道徳に関する理論的な処方令ではなく、人々の記述的判断に焦点をあてた記述的倫理に動機付けられ、機械倫理に対する新しいデータ駆動的アプローチを考察する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000以上の実生活の逸話を紹介する。
それぞれの逸話は複雑な倫理的状況を記録し、しばしば道徳的なジレンマを装い、コミュニティメンバーが貢献した判断の分配と組み合わせている。
私たちのデータセットは最先端のニューラルネットワークモデルに対する大きな課題を示し、改善の余地を残しています。
しかし、単純な道徳的状況で提示すると、結果ははるかに有望であり、ニューラルネットワークがより単純な倫理的構成要素を効果的に学習できることを示唆している。
私たちの経験的分析の要点は、規範は必ずしもクリーンなものではないということです。
そこで本研究では,モデル不確実性から本質的な特徴を分離する確率関数を探索し,ラベル分布が本質的に多様であるようなタスクにおいて最高の性能を推定する手法を提案する。
関連論文リスト
- Do Language Models Understand Morality? Towards a Robust Detection of Moral Content [4.096453902709292]
抽象概念と常識知識を活用する新しいシステムを導入する。
そこで本研究では,現実のシナリオにおける道徳的価値を検出するために,多目的で堅牢な手法を開発することを目的とする。
論文 参考訳(メタデータ) (2024-06-06T15:08:16Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Learning Machine Morality through Experience and Interaction [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Delphi: Towards Machine Ethics and Norms [38.8316885346292]
機械倫理と規範に対する4つの根本的な課題を特定します。
私たちのプロトタイプモデルであるDelphiは、言語ベースのコモンセンス道徳的推論の強い可能性を実証しています。
我々は,機械用にカスタマイズされた道徳教科書であるCommonsense Norm Bankを提示する。
論文 参考訳(メタデータ) (2021-10-14T17:38:12Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。