論文の概要: Moral intuitions behind deepfake-related discussions in Reddit
communities
- arxiv url: http://arxiv.org/abs/2303.06216v1
- Date: Mon, 27 Feb 2023 07:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 11:58:30.112228
- Title: Moral intuitions behind deepfake-related discussions in Reddit
communities
- Title(参考訳): redditコミュニティにおけるdeepfake関連の議論の背後にある道徳的直観
- Authors: Dilrukshi Gamage, Hariharan Ravinthran, Kazutoshi Sasahara
- Abstract要約: DeepfakesはAI合成コンテンツで、多くのソーシャルメディアプラットフォームで人気を集めている。
Redditの投稿101,869件の背後にある道徳的直観(道徳的負荷)の強さを測定します。
我々の結果は、プラットフォームがディープフェイクに関連する不道徳な活動を検出し、対処するのに役立ちます。
- 参考スコア(独自算出の注目度): 12.5166623202489
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deepfakes are AI-synthesized content that are becoming popular on many social
media platforms, meaning the use of deepfakes is increasing in society,
regardless of its societal implications. Its implications are harmful if the
moral intuitions behind deepfakes are problematic; thus, it is important to
explore how the moral intuitions behind deepfakes unfold in communities at
scale. However, understanding perceived moral viewpoints unfolding in digital
contexts is challenging, due to the complexities in conversations. In this
research, we demonstrate how Moral Foundations Theory (MFT) can be used as a
lens through which to operationalize moral viewpoints in discussions about
deepfakes on Reddit communities. Using the extended Moral Foundations
Dictionary (eMFD), we measured the strengths of moral intuition (moral loading)
behind 101,869 Reddit posts. We present the discussions that unfolded on Reddit
in 2018 to 2022 wherein intuitions behind some posts were found to be morally
questionable to society. Our results may help platforms detect and take action
against immoral activities related to deepfakes.
- Abstract(参考訳): ディープフェイク(Deepfakes)は、多くのソーシャルメディアプラットフォームで人気が高まっているAI合成コンテンツである。
ディープフェイクの背後にある道徳的直観が問題となる場合、その意味は有害であり、ディープフェイクの背後にある道徳的直観が大規模なコミュニティにどのように広がるかを検討することが重要である。
しかし、会話の複雑さのため、デジタル文脈で展開される道徳的視点を理解することは困難である。
本研究では, Redditコミュニティにおけるディープフェイクに関する議論において, 道徳的視点を運用するためのレンズとして, 道徳的基礎理論(MFT)をいかに活用できるかを示す。
拡張Moral Foundations Dictionary (eMFD)を用いて、Reddit投稿101,869件の道徳的直観の強さを測定した。
2018年から2022年にかけてredditで公開された議論では、いくつかの投稿の背後にある直観が社会に道徳的に疑わしいと判明した。
我々の結果は、プラットフォームがディープフェイクに関連する不道徳な活動を検出し、対処するのに役立ちます。
関連論文リスト
- What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - AITA Generating Moral Judgements of the Crowd with Reasoning [0.0]
このプロジェクトは、AITAサブレディットをデータセットとして使用して、道徳的ジレンマのあるストーリーに対する道徳的推論によるコメントを生成することを目的としている。
AITAコミュニティの規範と価値観に沿った一貫性のあるコメントを生成することを目的として、フォーラム上の膨大なデータを活用します。
論文 参考訳(メタデータ) (2023-10-21T10:27:22Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - The Moral Foundations Reddit Corpus [3.0320832388397827]
モラルフレーミングと感情は、様々なオンラインおよびオフラインの行動に影響を与える可能性がある。
私たちは12の異なるサブレディットからキュレートされた16,123のRedditコメントのコレクションであるMoral Foundations Reddit Corpusを紹介します。
論文 参考訳(メタデータ) (2022-08-10T20:08:10Z) - The Moral Debater: A Study on the Computational Generation of Morally
Framed Arguments [19.741685596196454]
聴衆の以前の信念と道徳は、それらが与えられた議論によってどの程度影響を受けるかを示す強い指標である。
異なる道徳に着目した議論を効果的に生成するシステムを提案する。
以上の結果から,特に事前の信念に異議を唱える場合,観衆は道徳的に枠づけされた議論の影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-03-28T08:07:13Z) - What Would Jiminy Cricket Do? Towards Agents That Behave Morally [59.67116505855223]
テキストベースのアドベンチャーゲーム25の環境スイートであるJimy Cricketを紹介します。
あらゆる可能なゲーム状態に注釈を付けることで、ジミニー・クリケット環境は、報酬を最大化しながら、エージェントが道徳的に行動できるかどうかを確実に評価する。
広範囲な実験において, 人工的良心アプローチは, パフォーマンスを犠牲にすることなく, 道徳的行動にエージェントを向けることができることがわかった。
論文 参考訳(メタデータ) (2021-10-25T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。