論文の概要: MOKA: Moral Knowledge Augmentation for Moral Event Extraction
- arxiv url: http://arxiv.org/abs/2311.09733v1
- Date: Thu, 16 Nov 2023 10:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 15:23:55.355189
- Title: MOKA: Moral Knowledge Augmentation for Moral Event Extraction
- Title(参考訳): Moka: モラルイベント抽出のためのモラル知識強化
- Authors: Xinliang Frederick Zhang, Winston Wu, Nick Beauchamp, Lu Wang
- Abstract要約: ニュースメディアは、記憶に残る物語を作るために道徳的な言葉を取り入れており、読者はしばしば彼らの価値観に沿ったコンテンツに携わる。
道徳的価値を単独で研究するニュース分析に道徳理論が適用され、その一方で、道徳的な出来事を形作る際の参加者間のダイナミクスは見過ごされている。
これは主に、明らかなイデオロギーと価値を隠すために不明瞭な言語を使うことと、既存のほとんどのNLPシステムにおける道徳的推論能力の不足が原因である。
本稿では,モラル知識を付加したモラルイベント抽出フレームワークであるMokaを提案する。
- 参考スコア(独自算出の注目度): 8.54193963742934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: News media employ moral language to create memorable stories, and readers
often engage with the content that align with their values. Moral theories have
been applied to news analysis studying moral values in isolation, while the
intricate dynamics among participating entities in shaping moral events have
been overlooked. This is mainly due to the use of obscure language to conceal
evident ideology and values, coupled with the insufficient moral reasoning
capability in most existing NLP systems, where LLMs are no exception. To study
this phenomenon, we first annotate a new dataset, MORAL EVENTS, consisting of
5,494 structured annotations on 474 news articles by diverse US media across
the political spectrum. We further propose MOKA, a moral event extraction
framework with MOral Knowledge Augmentation, that leverages knowledge derived
from moral words and moral scenarios. Experimental results show that MOKA
outperforms competitive baselines across three moral event understanding tasks.
Further analyses illuminate the selective reporting of moral events by media
outlets of different ideological leanings, suggesting the significance of
event-level morality analysis in news. Our datasets and codebase are available
at https://github.com/launchnlp/MOKA.
- Abstract(参考訳): ニュースメディアは道徳的な言葉を使って記憶に残る物語を作り、読者はしばしば自分の価値観に合致したコンテンツを扱っている。
モラル理論は独立して道徳価値を研究するニュース分析に応用され、モラル事象の形成に関わる関係者間の複雑なダイナミクスは見過ごされている。
これは主に、明らかなイデオロギーと価値を隠すために不明瞭な言語を使用することと、LPMが例外ではない既存のほとんどのNLPシステムにおいて、道徳的推論能力の不足が原因である。
この現象を研究するために、我々はまず474のニュース記事に対する5,494の構造化アノテーションからなる新しいデータセットMORAL EVENTSを、政治的スペクトルの様々な米国メディアによって注釈付けした。
さらに,モカ(moka)は,モラル語やモラルシナリオに由来する知識を活用し,モラル知識の強化を伴うモラルイベント抽出フレームワークを提案する。
実験の結果,mokaは3つのモラルイベント理解タスクにおいて,競合ベースラインよりも優れていた。
さらに、異なるイデオロギー傾向のメディアによる道徳的出来事の選択的報告を照らし、ニュースにおける出来事レベルの道徳的分析の重要性を示唆する。
私たちのデータセットとコードベースはhttps://github.com/launchnlp/mokaで利用可能です。
関連論文リスト
- EMONA: Event-level Moral Opinions in News Articles [14.898581862558112]
本稿では,ニュース記事における出来事に対する道徳的意見を理解するための新たなタスクを開始する。
我々は新しいデータセット、EMONAを作成し、ニュース記事に注釈付きイベントレベルの道徳的意見を作成しました。
論文 参考訳(メタデータ) (2024-04-02T07:57:19Z) - MoralBERT: A Fine-Tuned Language Model for Capturing Moral Values in Social Discussions [4.747987317906765]
道徳的価値は、情報を評価し、意思決定し、重要な社会問題に関する判断を形成する上で、基本的な役割を担います。
自然言語処理(NLP)の最近の進歩は、人文コンテンツにおいて道徳的価値を測ることができることを示している。
本稿では、社会談話における道徳的感情を捉えるために微調整された言語表現モデルであるMoralBERTを紹介する。
論文 参考訳(メタデータ) (2024-03-12T14:12:59Z) - Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - The Moral Foundations Reddit Corpus [3.0320832388397827]
モラルフレーミングと感情は、様々なオンラインおよびオフラインの行動に影響を与える可能性がある。
私たちは12の異なるサブレディットからキュレートされた16,123のRedditコメントのコレクションであるMoral Foundations Reddit Corpusを紹介します。
論文 参考訳(メタデータ) (2022-08-10T20:08:10Z) - A Corpus for Understanding and Generating Moral Stories [84.62366141696901]
機械のこれらの能力を評価するために,2つの理解タスクと2つの世代タスクを提案する。
我々は、中国語と英語で書かれた道徳的物語の新しいデータセットであるSTORALを提示する。
論文 参考訳(メタデータ) (2022-04-20T13:12:36Z) - An unsupervised framework for tracing textual sources of moral change [17.010859995410556]
我々は、時間を通して実体に対する道徳的変化のテキストソースをトレースする新しい枠組みを提案する。
我々は,ソーシャルメディアからニュース記事まで多種多様なデータ集合上で,我々の枠組みを評価する。
我々の枠組みは、人間の道徳的判断を微妙に捉えているだけでなく、歴史的出来事によって引き起こされた道徳的変化のコヒーレントな源泉であることも示している。
論文 参考訳(メタデータ) (2021-09-01T20:35:33Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。