論文の概要: Morality is Non-Binary: Building a Pluralist Moral Sentence Embedding
Space using Contrastive Learning
- arxiv url: http://arxiv.org/abs/2401.17228v1
- Date: Tue, 30 Jan 2024 18:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 13:58:32.390240
- Title: Morality is Non-Binary: Building a Pluralist Moral Sentence Embedding
Space using Contrastive Learning
- Title(参考訳): モラル性は非バイナリである:コントラスト学習を用いた多元主義的モラル文埋め込み空間の構築
- Authors: Jeongwoo Park, Enrico Liscio, Pradeep K. Murukannaiah
- Abstract要約: 複数の道徳哲学者は、人間の道徳性は有限個の要素に分解できると主張している。
我々は、最先端のコントラスト学習アプローチにより、多元的道徳文埋め込み空間を構築する。
以上の結果から,モラルに対する多元的アプローチを埋め込み空間で捉えることが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 4.925187725973777
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advances in NLP show that language models retain a discernible level
of knowledge in deontological ethics and moral norms. However, existing works
often treat morality as binary, ranging from right to wrong. This simplistic
view does not capture the nuances of moral judgment. Pluralist moral
philosophers argue that human morality can be deconstructed into a finite
number of elements, respecting individual differences in moral judgment. In
line with this view, we build a pluralist moral sentence embedding space via a
state-of-the-art contrastive learning approach. We systematically investigate
the embedding space by studying the emergence of relationships among moral
elements, both quantitatively and qualitatively. Our results show that a
pluralist approach to morality can be captured in an embedding space. However,
moral pluralism is challenging to deduce via self-supervision alone and
requires a supervised approach with human labels.
- Abstract(参考訳): nlpの最近の進歩は、言語モデルがデオントロジー倫理とモラル規範において識別可能な知識レベルを保っていることを示している。
しかし、既存の著作はしばしば道徳を二元論として扱う。
この単純な見解は道徳的判断のニュアンスを捉えない。
複数の道徳哲学者は、道徳的判断の個人差を尊重し、人間の道徳性は有限の要素に分解できると主張している。
この観点から,最先端のコントラスト学習手法を用いて,多元的道徳文埋め込み空間を構築する。
本研究では,モラル要素間の関係の出現を定量的・質的に検討し,埋蔵空間を体系的に調査する。
以上より,モラルに対する多元主義的アプローチを埋め込み空間で捉えることができることを示した。
しかし、道徳的多元主義は自己スーパービジョンのみを通じて推測することが困難であり、人間のラベルと教師付きアプローチを必要とする。
関連論文リスト
- Evaluating Moral Beliefs across LLMs through a Pluralistic Framework [22.0799438612003]
本研究では,4つの著名な大規模言語モデルの道徳的信念を評価するために,新しい3つのモジュール・フレームワークを提案する。
我々は、道徳的単語から派生した中国語の道徳的選択シナリオ472のデータセットを構築した。
これらの道徳的選択をランク付けすることで、異なる言語モデルによって保持される様々な道徳的信念を識別する。
論文 参考訳(メタデータ) (2024-11-06T04:52:38Z) - Decoding moral judgement from text: a pilot study [0.0]
道徳的判断は、認知的・感情的な次元に関わる複雑な人間の反応である。
受動的脳-コンピュータインタフェースを用いたテキスト刺激による道徳的判断復号の実現可能性について検討する。
論文 参考訳(メタデータ) (2024-05-28T20:31:59Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Does Moral Code Have a Moral Code? Probing Delphi's Moral Philosophy [5.760388205237227]
本稿では,Allen AI Delphiモデルについて,標準化されたモラル性アンケートを用いて検討する。
いくつかの矛盾にもかかわらず、デルフィは注釈プロセスに関わる人口集団に関する道徳的原則を反映する傾向にある。
論文 参考訳(メタデータ) (2022-05-25T13:37:56Z) - Contextualized moral inference [12.574316678945195]
本稿では,道徳的ヴィグネットの直感的な判断をテキストベースで予測する手法を提案する。
文脈化された表現は、代替表現よりもかなり有利であることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:34:28Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。