論文の概要: Enhancing Stance Classification on Social Media Using Quantified Moral Foundations
- arxiv url: http://arxiv.org/abs/2310.09848v3
- Date: Sun, 29 Sep 2024 06:34:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:00:29.783011
- Title: Enhancing Stance Classification on Social Media Using Quantified Moral Foundations
- Title(参考訳): 定量的モラル基礎を用いたソーシャルメディアにおけるスタンス分類の強化
- Authors: Hong Zhang, Quoc-Nam Nguyen, Prasanta Bhattacharya, Wei Gao, Liang Ze Wong, Brandon Siyuan Loh, Joseph J. P. Simons, Jisun An,
- Abstract要約: 本研究では,道徳的基盤の次元が,特定の目標に対する個人の姿勢を予測するのにどのように貢献するかを検討する。
テキストから抽出した道徳的基礎的特徴とメッセージ意味的特徴を組み込んで,メッセージレベルとユーザレベルのスタンスを分類する。
予備的な結果は、モラル基礎の符号化が姿勢検出タスクの性能を高めることを示唆している。
- 参考スコア(独自算出の注目度): 7.061680079778037
- License:
- Abstract: This study enhances stance detection on social media by incorporating deeper psychological attributes, specifically individuals' moral foundations. These theoretically-derived dimensions aim to provide a comprehensive profile of an individual's moral concerns which, in recent work, has been linked to behaviour in a range of domains, including society, politics, health, and the environment. In this paper, we investigate how moral foundation dimensions can contribute to predicting an individual's stance on a given target. Specifically we incorporate moral foundation features extracted from text, along with message semantic features, to classify stances at both message- and user-levels using both traditional machine learning models and large language models. Our preliminary results suggest that encoding moral foundations can enhance the performance of stance detection tasks and help illuminate the associations between specific moral foundations and online stances on target topics. The results highlight the importance of considering deeper psychological attributes in stance analysis and underscores the role of moral foundations in guiding online social behavior.
- Abstract(参考訳): 本研究は、より深い心理的属性、特に個人の道徳的基盤を組み込むことにより、ソーシャルメディアにおけるスタンス検出を強化する。
これらの理論的に派生した次元は、社会、政治、健康、環境など、様々な領域における行動と結びついている個人の道徳的関心の包括的プロファイルを提供することを目的としている。
本稿では,道徳的基盤の次元が,特定の目標に対する個人の姿勢を予測するのにどのように貢献するかを検討する。
具体的には、従来の機械学習モデルと大規模言語モデルの両方を用いて、テキストから抽出された道徳的基礎機能と、メッセージセマンティック機能を組み合わせて、メッセージレベルとユーザレベルの両方のスタンスを分類する。
予備的な結果は、モラル基礎の符号化は、スタンス検出タスクのパフォーマンスを高め、特定のモラル基礎とターゲットトピックに対するオンラインスタンスとの関係を照らすのに役立つことを示唆している。
この結果は、スタンス分析における深い心理的属性を考慮することの重要性を強調し、オンライン社会行動の指導における道徳的基礎の役割を浮き彫りにするものである。
関連論文リスト
- A Survey on Moral Foundation Theory and Pre-Trained Language Models: Current Advances and Challenges [2.435021773579434]
道徳的価値は初期の文明に深く根ざし、社会秩序と共通の善を規制する規範や法則の中で成文化された。
モラル・ファンデーション理論(MFT)は、異なる文化が個人や社会生活を形作る方法の基礎となる道徳的基盤を識別する確立した枠組みである。
自然言語処理,特にプレトレーニング言語モデル(PLM)の最近の進歩は,テキストデータから道徳的次元の抽出と分析を可能にしている。
論文 参考訳(メタデータ) (2024-09-20T14:03:06Z) - MoralBERT: A Fine-Tuned Language Model for Capturing Moral Values in Social Discussions [4.747987317906765]
道徳的価値は、情報を評価し、意思決定し、重要な社会問題に関する判断を形成する上で、基本的な役割を担います。
自然言語処理(NLP)の最近の進歩は、人文コンテンツにおいて道徳的価値を測ることができることを示している。
本稿では、社会談話における道徳的感情を捉えるために微調整された言語表現モデルであるMoralBERTを紹介する。
論文 参考訳(メタデータ) (2024-03-12T14:12:59Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Self-supervised Hypergraph Representation Learning for Sociological
Analysis [52.514283292498405]
本稿では,データマイニング技術と社会学的行動基準のさらなる融合を支援するための基本的な方法論を提案する。
まず,効率的なハイパーグラフ認識と高速グラフ構築フレームワークを提案する。
第2に,ユーザからユーザへのソーシャルインフルエンスを学習するためのハイパーグラフベースニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-22T01:20:29Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - Learning to Adapt Domain Shifts of Moral Values via Instance Weighting [74.94940334628632]
ソーシャルメディアからユーザ生成テキストの道徳的価値を分類することは、コミュニティ文化を理解する上で重要である。
道徳的価値観と言語使用法は、社会運動全体で変化しうる。
本稿では、ドメイン間分類タスクを改善するために、インスタンス重み付けによるニューラルネットワーク適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-15T18:15:41Z) - Identifying Morality Frames in Political Tweets using Relational
Learning [27.047907641503762]
道徳的感情はその目標によって動機付けられ、個人または集団的実体に対応することができる。
異なる主体に向けられた道徳的態度を組織化するための表現枠組みである道徳的枠組みを導入する。
本研究では,関係学習モデルを提案し,実体や道徳的基礎に対する道徳的態度を共同で予測する。
論文 参考訳(メタデータ) (2021-09-09T19:48:57Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。