論文の概要: MOKA: Moral Knowledge Augmentation for Moral Event Extraction
- arxiv url: http://arxiv.org/abs/2311.09733v2
- Date: Thu, 23 May 2024 01:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-26 20:13:50.729099
- Title: MOKA: Moral Knowledge Augmentation for Moral Event Extraction
- Title(参考訳): Moka: モラルイベント抽出のためのモラル知識強化
- Authors: Xinliang Frederick Zhang, Winston Wu, Nick Beauchamp, Lu Wang,
- Abstract要約: ニュースメディアは、しばしばニュース記事における明示的な道徳的言語を最小化しようと試みるが、ほとんどの記事は、報告された出来事自体を通して表現される道徳的価値に富んでいる。
この現象を調査するために,政治スペクトルの多種多様な米国メディアによる474のニュース記事に5,494の構造化イベントアノテーションからなる新たなデータセットMORAL EVENTSを注釈付けした。
本稿では,モラル知識を付加したモラルイベント抽出フレームワークであるMokaを提案する。
- 参考スコア(独自算出の注目度): 7.8192232188516115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: News media often strive to minimize explicit moral language in news articles, yet most articles are dense with moral values as expressed through the reported events themselves. However, values that are reflected in the intricate dynamics among participating entities and moral events are far more challenging for most NLP systems to detect, including LLMs. To study this phenomenon, we annotate a new dataset, MORAL EVENTS, consisting of 5,494 structured event annotations on 474 news articles by diverse US media across the political spectrum. We further propose MOKA, a moral event extraction framework with MOral Knowledge Augmentation, which leverages knowledge derived from moral words and moral scenarios to produce structural representations of morality-bearing events. Experiments show that MOKA outperforms competitive baselines across three moral event understanding tasks. Further analysis shows even ostensibly nonpartisan media engage in the selective reporting of moral events. Our data and codebase are available at https://github.com/launchnlp/MOKA.
- Abstract(参考訳): ニュースメディアは、しばしばニュース記事における明示的な道徳的言語を最小化しようと試みるが、ほとんどの記事は、報告された出来事自体を通して表現される道徳的価値に富んでいる。
しかしながら、参加するエンティティやモラルイベントの複雑なダイナミクスに反映される値は、LPMを含むほとんどのNLPシステムにとって、はるかに困難である。
この現象を調査するために,政治スペクトルの多種多様な米国メディアによる474のニュース記事に5,494の構造化イベントアノテーションからなる新たなデータセットMORAL EVENTSを注釈付けした。
さらに,モラル知識を付加したモラルイベント抽出フレームワークであるMokaを提案する。
実験の結果,Mokaは3つのモラル事象理解タスクにおいて,競争基準よりも優れていた。
さらに分析すると、一見非党派メディアでさえ道徳的な出来事を選択的に報告していることがわかる。
私たちのデータとコードベースはhttps://github.com/ Launchnlp/Moka.comで公開されています。
関連論文リスト
- M$^3$oralBench: A MultiModal Moral Benchmark for LVLMs [66.78407469042642]
LVLMのための最初のMultiModal Moral BenchmarkであるM$3$oralBenchを紹介する。
M$3$oralBench は Moral Foundations Vignettes (MFVs) の日常的なモラルシナリオを拡張し、テキストから画像への拡散モデル SD3.0 を用いて対応するシナリオイメージを作成する。
道徳基礎理論(MFT)の6つの道徳的基礎にまたがって道徳的評価を行い、道徳的判断、道徳的分類、道徳的対応の課題を含む。
論文 参考訳(メタデータ) (2024-12-30T05:18:55Z) - EMONA: Event-level Moral Opinions in News Articles [14.898581862558112]
本稿では,ニュース記事における出来事に対する道徳的意見を理解するための新たなタスクを開始する。
我々は新しいデータセット、EMONAを作成し、ニュース記事に注釈付きイベントレベルの道徳的意見を作成しました。
論文 参考訳(メタデータ) (2024-04-02T07:57:19Z) - MoralBERT: A Fine-Tuned Language Model for Capturing Moral Values in Social Discussions [4.747987317906765]
道徳的価値は、情報を評価し、意思決定し、重要な社会問題に関する判断を形成する上で、基本的な役割を担います。
自然言語処理(NLP)の最近の進歩は、人文コンテンツにおいて道徳的価値を測ることができることを示している。
本稿では、社会談話における道徳的感情を捉えるために微調整された言語表現モデルであるMoralBERTを紹介する。
論文 参考訳(メタデータ) (2024-03-12T14:12:59Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - The Moral Foundations Reddit Corpus [3.0320832388397827]
モラルフレーミングと感情は、様々なオンラインおよびオフラインの行動に影響を与える可能性がある。
私たちは12の異なるサブレディットからキュレートされた16,123のRedditコメントのコレクションであるMoral Foundations Reddit Corpusを紹介します。
論文 参考訳(メタデータ) (2022-08-10T20:08:10Z) - A Corpus for Understanding and Generating Moral Stories [84.62366141696901]
機械のこれらの能力を評価するために,2つの理解タスクと2つの世代タスクを提案する。
我々は、中国語と英語で書かれた道徳的物語の新しいデータセットであるSTORALを提示する。
論文 参考訳(メタデータ) (2022-04-20T13:12:36Z) - An unsupervised framework for tracing textual sources of moral change [17.010859995410556]
我々は、時間を通して実体に対する道徳的変化のテキストソースをトレースする新しい枠組みを提案する。
我々は,ソーシャルメディアからニュース記事まで多種多様なデータ集合上で,我々の枠組みを評価する。
我々の枠組みは、人間の道徳的判断を微妙に捉えているだけでなく、歴史的出来事によって引き起こされた道徳的変化のコヒーレントな源泉であることも示している。
論文 参考訳(メタデータ) (2021-09-01T20:35:33Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。