論文の概要: Does Moral Code Have a Moral Code? Probing Delphi's Moral Philosophy
- arxiv url: http://arxiv.org/abs/2205.12771v1
- Date: Wed, 25 May 2022 13:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 15:09:47.186219
- Title: Does Moral Code Have a Moral Code? Probing Delphi's Moral Philosophy
- Title(参考訳): モラルコードはモラルコードを持っているか?
デルフィの道徳哲学を探る
- Authors: Kathleen C. Fraser, Svetlana Kiritchenko, and Esma Balkir
- Abstract要約: 本稿では,Allen AI Delphiモデルについて,標準化されたモラル性アンケートを用いて検討する。
いくつかの矛盾にもかかわらず、デルフィは注釈プロセスに関わる人口集団に関する道徳的原則を反映する傾向にある。
- 参考スコア(独自算出の注目度): 5.760388205237227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In an effort to guarantee that machine learning model outputs conform with
human moral values, recent work has begun exploring the possibility of
explicitly training models to learn the difference between right and wrong.
This is typically done in a bottom-up fashion, by exposing the model to
different scenarios, annotated with human moral judgements. One question,
however, is whether the trained models actually learn any consistent,
higher-level ethical principles from these datasets -- and if so, what? Here,
we probe the Allen AI Delphi model with a set of standardized morality
questionnaires, and find that, despite some inconsistencies, Delphi tends to
mirror the moral principles associated with the demographic groups involved in
the annotation process. We question whether this is desirable and discuss how
we might move forward with this knowledge.
- Abstract(参考訳): 機械学習モデルのアウトプットが人間の道徳的価値に合致することを保証するため、最近の研究は、正しいものと間違ったものの違いを学習するために、モデルを明示的に訓練する可能性を模索している。
これは一般的にボトムアップ方式で行われ、モデルを異なるシナリオに公開し、人間の道徳的判断に注釈を付ける。
しかし、ある疑問は、訓練されたモデルが実際にこれらのデータセットから一貫性のある高レベルの倫理原則を学んでいるかどうかだ。
本稿では,Allen AI Delphiモデルを標準化されたモラル性アンケートを用いて検討し,いくつかの矛盾にもかかわらず,アノテーションプロセスに関わる階層群に関連する道徳原則を反映する傾向にあることを示した。
これが望ましいかどうか疑問を呈し、この知識をどう進めるかについて議論する。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Morality is Non-Binary: Building a Pluralist Moral Sentence Embedding
Space using Contrastive Learning [4.925187725973777]
複数の道徳哲学者は、人間の道徳性は有限個の要素に分解できると主張している。
我々は、最先端のコントラスト学習アプローチにより、多元的道徳文埋め込み空間を構築する。
以上の結果から,モラルに対する多元的アプローチを埋め込み空間で捉えることが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-01-30T18:15:25Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Reinforcement Learning Under Moral Uncertainty [13.761051314923634]
機械学習の野心的な目標は、倫理的に振る舞うエージェントを作ることだ。
倫理的エージェントは、特定の道徳理論の下で正しい行動に報いることによって訓練することができるが、道徳性の本質について広く意見の相違がある。
本稿では、競合するデシダラタの異なる点を実現するための2つのトレーニング手法を提案し、モラルの不確実性の下で行動するための単純な環境におけるエージェントを訓練する。
論文 参考訳(メタデータ) (2020-06-08T16:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。