論文の概要: MOKA: Moral Knowledge Augmentation for Moral Event Extraction
- arxiv url: http://arxiv.org/abs/2311.09733v1
- Date: Thu, 16 Nov 2023 10:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 15:23:55.355189
- Title: MOKA: Moral Knowledge Augmentation for Moral Event Extraction
- Title(参考訳): Moka: モラルイベント抽出のためのモラル知識強化
- Authors: Xinliang Frederick Zhang, Winston Wu, Nick Beauchamp, Lu Wang
- Abstract要約: ニュースメディアは、記憶に残る物語を作るために道徳的な言葉を取り入れており、読者はしばしば彼らの価値観に沿ったコンテンツに携わる。
道徳的価値を単独で研究するニュース分析に道徳理論が適用され、その一方で、道徳的な出来事を形作る際の参加者間のダイナミクスは見過ごされている。
これは主に、明らかなイデオロギーと価値を隠すために不明瞭な言語を使うことと、既存のほとんどのNLPシステムにおける道徳的推論能力の不足が原因である。
本稿では,モラル知識を付加したモラルイベント抽出フレームワークであるMokaを提案する。
- 参考スコア(独自算出の注目度): 8.54193963742934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: News media employ moral language to create memorable stories, and readers
often engage with the content that align with their values. Moral theories have
been applied to news analysis studying moral values in isolation, while the
intricate dynamics among participating entities in shaping moral events have
been overlooked. This is mainly due to the use of obscure language to conceal
evident ideology and values, coupled with the insufficient moral reasoning
capability in most existing NLP systems, where LLMs are no exception. To study
this phenomenon, we first annotate a new dataset, MORAL EVENTS, consisting of
5,494 structured annotations on 474 news articles by diverse US media across
the political spectrum. We further propose MOKA, a moral event extraction
framework with MOral Knowledge Augmentation, that leverages knowledge derived
from moral words and moral scenarios. Experimental results show that MOKA
outperforms competitive baselines across three moral event understanding tasks.
Further analyses illuminate the selective reporting of moral events by media
outlets of different ideological leanings, suggesting the significance of
event-level morality analysis in news. Our datasets and codebase are available
at https://github.com/launchnlp/MOKA.
- Abstract(参考訳): ニュースメディアは道徳的な言葉を使って記憶に残る物語を作り、読者はしばしば自分の価値観に合致したコンテンツを扱っている。
モラル理論は独立して道徳価値を研究するニュース分析に応用され、モラル事象の形成に関わる関係者間の複雑なダイナミクスは見過ごされている。
これは主に、明らかなイデオロギーと価値を隠すために不明瞭な言語を使用することと、LPMが例外ではない既存のほとんどのNLPシステムにおいて、道徳的推論能力の不足が原因である。
この現象を研究するために、我々はまず474のニュース記事に対する5,494の構造化アノテーションからなる新しいデータセットMORAL EVENTSを、政治的スペクトルの様々な米国メディアによって注釈付けした。
さらに,モカ(moka)は,モラル語やモラルシナリオに由来する知識を活用し,モラル知識の強化を伴うモラルイベント抽出フレームワークを提案する。
実験の結果,mokaは3つのモラルイベント理解タスクにおいて,競合ベースラインよりも優れていた。
さらに、異なるイデオロギー傾向のメディアによる道徳的出来事の選択的報告を照らし、ニュースにおける出来事レベルの道徳的分析の重要性を示唆する。
私たちのデータセットとコードベースはhttps://github.com/launchnlp/mokaで利用可能です。
関連論文リスト
- MoralBERT: Detecting Moral Values in Social Discourse [3.0567348883549816]
道徳は、私たちの決定や判断に大きな影響を与えながら、情報をどのように知覚するかにおいて、基本的な役割を担います。
自然言語処理の最近の進歩は、道徳的価値を人間の生成したテキストコンテンツで測定できることを実証している。
そこで本研究では,MoralBERTと呼ばれるテキストの道徳的ニュアンスを正確に捉えるために,微調整された言語表現モデルを設計する。
私たちは、Twitter、Reddit、Facebookの3つの異なるソースからの注釈付き道徳データを活用しています。
論文 参考訳(メタデータ) (2024-03-12T14:12:59Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through
the Lens of Moral Theories? [82.30392883508925]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチはボトムアップ方式で実装されている。
トップダウンのアプローチは、一連の原則に基づく道徳的な判断を下します。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - The Moral Foundations Reddit Corpus [3.0320832388397827]
モラルフレーミングと感情は、様々なオンラインおよびオフラインの行動に影響を与える可能性がある。
私たちは12の異なるサブレディットからキュレートされた16,123のRedditコメントのコレクションであるMoral Foundations Reddit Corpusを紹介します。
論文 参考訳(メタデータ) (2022-08-10T20:08:10Z) - A Corpus for Understanding and Generating Moral Stories [84.62366141696901]
機械のこれらの能力を評価するために,2つの理解タスクと2つの世代タスクを提案する。
我々は、中国語と英語で書かれた道徳的物語の新しいデータセットであるSTORALを提示する。
論文 参考訳(メタデータ) (2022-04-20T13:12:36Z) - Identifying Morality Frames in Political Tweets using Relational
Learning [27.047907641503762]
道徳的感情はその目標によって動機付けられ、個人または集団的実体に対応することができる。
異なる主体に向けられた道徳的態度を組織化するための表現枠組みである道徳的枠組みを導入する。
本研究では,関係学習モデルを提案し,実体や道徳的基礎に対する道徳的態度を共同で予測する。
論文 参考訳(メタデータ) (2021-09-09T19:48:57Z) - An unsupervised framework for tracing textual sources of moral change [17.010859995410556]
我々は、時間を通して実体に対する道徳的変化のテキストソースをトレースする新しい枠組みを提案する。
我々は,ソーシャルメディアからニュース記事まで多種多様なデータ集合上で,我々の枠組みを評価する。
我々の枠組みは、人間の道徳的判断を微妙に捉えているだけでなく、歴史的出来事によって引き起こされた道徳的変化のコヒーレントな源泉であることも示している。
論文 参考訳(メタデータ) (2021-09-01T20:35:33Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。