論文の概要: AITA Generating Moral Judgements of the Crowd with Reasoning
- arxiv url: http://arxiv.org/abs/2310.18336v1
- Date: Sat, 21 Oct 2023 10:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-05 14:08:51.140751
- Title: AITA Generating Moral Judgements of the Crowd with Reasoning
- Title(参考訳): 推論による群衆の道徳判断を生成するAITA
- Authors: Osama Bsher and Ameer Sabri
- Abstract要約: このプロジェクトは、AITAサブレディットをデータセットとして使用して、道徳的ジレンマのあるストーリーに対する道徳的推論によるコメントを生成することを目的としている。
AITAコミュニティの規範と価値観に沿った一貫性のあるコメントを生成することを目的として、フォーラム上の膨大なデータを活用します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Morality is a fundamental aspect of human behavior and ethics, influencing
how we interact with each other and the world around us. When faced with a
moral dilemma, a person's ability to make clear moral judgments can be clouded.
Due to many factors such as personal biases, emotions and situational factors
people can find it difficult to decide their best course of action. The
AmITheAsshole (AITA) subreddit is a forum on the social media platform Reddit
that helps people get clarity and objectivity on their predicaments. In the
forum people post anecdotes about moral dilemmas they are facing in their
lives, seeking validation for their actions or advice on how to navigate the
situation from the community. The morality of the actions in each post is
classified based on the collective opinion of the community into mainly two
labels, "Not The Asshole" (NTA) and "You Are The Asshole" (YTA). This project
aims to generate comments with moral reasoning for stories with moral dilemmas
using the AITA subreddit as a dataset. While past literature has explored the
classification of posts into labels (Alhassan et al., 2022), the generation of
comments remains a novel and challenging task. It involves understanding the
complex social and ethical considerations in each situation. To address this
challenge, we will leverage the vast amount of data on the forum with the goal
of generating coherent comments that align with the norms and values of the
AITA community. In this endeavor, we aim to evaluate state-of-the-art seq2seq
text generation models for their ability to make moral judgments similarly to
humans, ultimately producing concise comments providing clear moral stances and
advice for the poster.
- Abstract(参考訳): 道徳は人間の行動と倫理の基本的な側面であり、お互いとの相互作用や周りの世界に影響を与える。
道徳的ジレンマに直面した場合、明確な道徳的判断を下す能力は曇ることがある。
個人的偏見、感情、状況的要因など多くの要因により、人々が最善の行動方針を決定することは困難である。
AmITheAsshole(AITA)のサブレディットは、ソーシャルメディアプラットフォームRedditのフォーラムで、人々が自分のプレジケーションに対して明瞭さと客観性を得るのを助ける。
フォーラムでは、人々が人生で直面している道徳的ジレンマに関する逸話を投稿し、彼らの行動の検証やコミュニティから状況をナビゲートする方法に関するアドバイスを求めます。
各ポストにおける行動の道徳性は、コミュニティの集団的意見に基づいて、主に「Not The Asshole」(NTA)と「You Are The Asshole」(YTA)の2つのラベルに分類される。
このプロジェクトの目的は、aita subredditをデータセットとして使う、モラルジレンマのあるストーリーに対するモラル推論によるコメントの生成である。
過去の文献では、投稿をラベルに分類している(alhassan et al., 2022)が、コメントの生成は新奇で挑戦的な作業である。
各状況における複雑な社会的・倫理的考察を理解する。
この課題に対処するために、我々はaitaコミュニティの規範と価値に合致した一貫性のあるコメントを生成することを目標として、フォーラムの膨大なデータを活用する。
この取り組みでは,人間と同じように道徳的判断を行う能力について,最先端のseq2seqテキスト生成モデルを評価し,最終的にポスターに対する明確な道徳的態度とアドバイスを提供する簡潔なコメントを作成した。
関連論文リスト
- Morality is Non-Binary: Building a Pluralist Moral Sentence Embedding
Space using Contrastive Learning [4.925187725973777]
複数の道徳哲学者は、人間の道徳性は有限個の要素に分解できると主張している。
我々は、最先端のコントラスト学習アプローチにより、多元的道徳文埋め込み空間を構築する。
以上の結果から,モラルに対する多元的アプローチを埋め込み空間で捉えることが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-01-30T18:15:25Z) - Moral Sparks in Social Media Narratives [14.025768295979184]
実生活における倫理的シナリオにおける人間の道徳的判断を理解するために,ソーシャルメディア上でのインタラクションを検討する。
具体的には、r/AmITheAssholeと呼ばれるRedditの人気のサブレディット(サブコミュニティ)の投稿を調べる。
論文 参考訳(メタデータ) (2023-10-30T05:03:26Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - A Corpus for Understanding and Generating Moral Stories [84.62366141696901]
機械のこれらの能力を評価するために,2つの理解タスクと2つの世代タスクを提案する。
我々は、中国語と英語で書かれた道徳的物語の新しいデータセットであるSTORALを提示する。
論文 参考訳(メタデータ) (2022-04-20T13:12:36Z) - Explainable Patterns for Distinction and Prediction of Moral Judgement
on Reddit [8.98624781242271]
Redditのフォーラムr/AmITheAssholeでは、ユーザが提示した具体的な物語に基づいた道徳的問題に関する議論が開催されている。
コメントの新しいデータセットを構築し、フォーラムの投稿の分類を調査する。
論文 参考訳(メタデータ) (2022-01-26T19:39:52Z) - Delphi: Towards Machine Ethics and Norms [38.8316885346292]
機械倫理と規範に対する4つの根本的な課題を特定します。
私たちのプロトタイプモデルであるDelphiは、言語ベースのコモンセンス道徳的推論の強い可能性を実証しています。
我々は,機械用にカスタマイズされた道徳教科書であるCommonsense Norm Bankを提示する。
論文 参考訳(メタデータ) (2021-10-14T17:38:12Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。