論文の概要: Enhancing Stance Classification on Social Media Using Quantified Moral Foundations
- arxiv url: http://arxiv.org/abs/2310.09848v3
- Date: Sun, 29 Sep 2024 06:34:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:00:29.783011
- Title: Enhancing Stance Classification on Social Media Using Quantified Moral Foundations
- Title(参考訳): 定量的モラル基礎を用いたソーシャルメディアにおけるスタンス分類の強化
- Authors: Hong Zhang, Quoc-Nam Nguyen, Prasanta Bhattacharya, Wei Gao, Liang Ze Wong, Brandon Siyuan Loh, Joseph J. P. Simons, Jisun An,
- Abstract要約: 本研究では,道徳的基盤の次元が,特定の目標に対する個人の姿勢を予測するのにどのように貢献するかを検討する。
テキストから抽出した道徳的基礎的特徴とメッセージ意味的特徴を組み込んで,メッセージレベルとユーザレベルのスタンスを分類する。
予備的な結果は、モラル基礎の符号化が姿勢検出タスクの性能を高めることを示唆している。
- 参考スコア(独自算出の注目度): 7.061680079778037
- License:
- Abstract: This study enhances stance detection on social media by incorporating deeper psychological attributes, specifically individuals' moral foundations. These theoretically-derived dimensions aim to provide a comprehensive profile of an individual's moral concerns which, in recent work, has been linked to behaviour in a range of domains, including society, politics, health, and the environment. In this paper, we investigate how moral foundation dimensions can contribute to predicting an individual's stance on a given target. Specifically we incorporate moral foundation features extracted from text, along with message semantic features, to classify stances at both message- and user-levels using both traditional machine learning models and large language models. Our preliminary results suggest that encoding moral foundations can enhance the performance of stance detection tasks and help illuminate the associations between specific moral foundations and online stances on target topics. The results highlight the importance of considering deeper psychological attributes in stance analysis and underscores the role of moral foundations in guiding online social behavior.
- Abstract(参考訳): 本研究は、より深い心理的属性、特に個人の道徳的基盤を組み込むことにより、ソーシャルメディアにおけるスタンス検出を強化する。
これらの理論的に派生した次元は、社会、政治、健康、環境など、様々な領域における行動と結びついている個人の道徳的関心の包括的プロファイルを提供することを目的としている。
本稿では,道徳的基盤の次元が,特定の目標に対する個人の姿勢を予測するのにどのように貢献するかを検討する。
具体的には、従来の機械学習モデルと大規模言語モデルの両方を用いて、テキストから抽出された道徳的基礎機能と、メッセージセマンティック機能を組み合わせて、メッセージレベルとユーザレベルの両方のスタンスを分類する。
予備的な結果は、モラル基礎の符号化は、スタンス検出タスクのパフォーマンスを高め、特定のモラル基礎とターゲットトピックに対するオンラインスタンスとの関係を照らすのに役立つことを示唆している。
この結果は、スタンス分析における深い心理的属性を考慮することの重要性を強調し、オンライン社会行動の指導における道徳的基礎の役割を浮き彫りにするものである。
関連論文リスト
- The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - From Instructions to Intrinsic Human Values -- A Survey of Alignment
Goals for Big Models [48.326660953180145]
既存の作業におけるさまざまなアライメント目標の調査を行い、その進化経路を辿り、最も重要な目標を特定するのに役立ちます。
分析の結果,基本能力から価値指向への目標転換が明らかとなり,拡張LDMのアライメント目標として本質的な人的価値の可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-23T09:11:13Z) - From computational ethics to morality: how decision-making algorithms
can help us understand the emergence of moral principles, the existence of an
optimal behaviour and our ability to discover it [0.0]
本稿では, 道徳の自然化に向けた進化倫理の取り組みを, 計算倫理観から導かれた洞察を提供することによって追加する。
本稿では,強化学習に基づく人的意思決定のスタイリングモデルを提案する。
論文 参考訳(メタデータ) (2023-07-20T14:39:08Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - The Moral Foundations Reddit Corpus [3.0320832388397827]
モラルフレーミングと感情は、様々なオンラインおよびオフラインの行動に影響を与える可能性がある。
私たちは12の異なるサブレディットからキュレートされた16,123のRedditコメントのコレクションであるMoral Foundations Reddit Corpusを紹介します。
論文 参考訳(メタデータ) (2022-08-10T20:08:10Z) - Learning to Adapt Domain Shifts of Moral Values via Instance Weighting [74.94940334628632]
ソーシャルメディアからユーザ生成テキストの道徳的価値を分類することは、コミュニティ文化を理解する上で重要である。
道徳的価値観と言語使用法は、社会運動全体で変化しうる。
本稿では、ドメイン間分類タスクを改善するために、インスタンス重み付けによるニューラルネットワーク適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-15T18:15:41Z) - Identifying Morality Frames in Political Tweets using Relational
Learning [27.047907641503762]
道徳的感情はその目標によって動機付けられ、個人または集団的実体に対応することができる。
異なる主体に向けられた道徳的態度を組織化するための表現枠組みである道徳的枠組みを導入する。
本研究では,関係学習モデルを提案し,実体や道徳的基礎に対する道徳的態度を共同で予測する。
論文 参考訳(メタデータ) (2021-09-09T19:48:57Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。