論文の概要: Enhancing Stance Classification with Quantified Moral Foundations
- arxiv url: http://arxiv.org/abs/2310.09848v1
- Date: Sun, 15 Oct 2023 14:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 17:39:31.287642
- Title: Enhancing Stance Classification with Quantified Moral Foundations
- Title(参考訳): 数量化モラル基盤によるスタンス分類の強化
- Authors: Hong Zhang, Prasanta Bhattacharya, Wei Gao, Liang Ze Wong, Brandon
Siyuan Loh, Joseph J. P. Simons, Jisun An
- Abstract要約: 本研究では,道徳的基盤の次元が,特定の目標に対する個人の姿勢を予測するのにどのように貢献するかを検討する。
テキストから抽出した道徳的基礎的特徴とメッセージ意味的特徴を組み込んで,メッセージレベルとユーザレベルのスタンスを分類する。
予備的な結果は、モラル基礎の符号化が姿勢検出タスクの性能を高めることを示唆している。
- 参考スコア(独自算出の注目度): 7.642826564345958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study enhances stance detection on social media by incorporating deeper
psychological attributes, specifically individuals' moral foundations. These
theoretically-derived dimensions aim to provide a comprehensive profile of an
individual's moral concerns which, in recent work, has been linked to behaviour
in a range of domains, including society, politics, health, and the
environment. In this paper, we investigate how moral foundation dimensions can
contribute to predicting an individual's stance on a given target. Specifically
we incorporate moral foundation features extracted from text, along with
message semantic features, to classify stances at both message- and user-levels
across a range of targets and models. Our preliminary results suggest that
encoding moral foundations can enhance the performance of stance detection
tasks and help illuminate the associations between specific moral foundations
and online stances on target topics. The results highlight the importance of
considering deeper psychological attributes in stance analysis and underscores
the role of moral foundations in guiding online social behavior.
- Abstract(参考訳): 本研究は,より深い心理的属性,特に個人のモラル基盤を取り入れ,ソーシャルメディアにおけるスタンス検出を強化する。
これらの理論的に派生した次元は、社会、政治、健康、環境など、様々な領域における行動と結びついている個人の道徳的関心の包括的プロファイルを提供することを目的としている。
本稿では,モラル基礎次元が対象に対する個人のスタンス予測にどのように寄与するかを検討する。
具体的には、テキストから抽出した道徳的基礎的特徴とメッセージ意味的特徴を組み込んで、さまざまなターゲットやモデルにわたるメッセージレベルとユーザレベルのスタンスを分類する。
予備結果は,モラル基盤の符号化により,スタンス検出タスクの性能が向上し,特定のモラル基盤と対象トピックに対するオンラインスタンスとの関連性が高まることを示唆する。
その結果、スタンス分析においてより深い心理的属性を考慮することの重要性を強調し、オンライン社会行動を導く上での道徳的基礎の役割を強調した。
関連論文リスト
- Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through
the Lens of Moral Theories? [82.30392883508925]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチはボトムアップ方式で実装されている。
トップダウンのアプローチは、一連の原則に基づく道徳的な判断を下します。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - From Instructions to Intrinsic Human Values -- A Survey of Alignment
Goals for Big Models [48.326660953180145]
既存の作業におけるさまざまなアライメント目標の調査を行い、その進化経路を辿り、最も重要な目標を特定するのに役立ちます。
分析の結果,基本能力から価値指向への目標転換が明らかとなり,拡張LDMのアライメント目標として本質的な人的価値の可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-23T09:11:13Z) - From computational ethics to morality: how decision-making algorithms
can help us understand the emergence of moral principles, the existence of an
optimal behaviour and our ability to discover it [0.0]
本稿では, 道徳の自然化に向けた進化倫理の取り組みを, 計算倫理観から導かれた洞察を提供することによって追加する。
本稿では,強化学習に基づく人的意思決定のスタイリングモデルを提案する。
論文 参考訳(メタデータ) (2023-07-20T14:39:08Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - The Moral Foundations Reddit Corpus [3.0320832388397827]
モラルフレーミングと感情は、様々なオンラインおよびオフラインの行動に影響を与える可能性がある。
私たちは12の異なるサブレディットからキュレートされた16,123のRedditコメントのコレクションであるMoral Foundations Reddit Corpusを紹介します。
論文 参考訳(メタデータ) (2022-08-10T20:08:10Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Learning to Adapt Domain Shifts of Moral Values via Instance Weighting [74.94940334628632]
ソーシャルメディアからユーザ生成テキストの道徳的価値を分類することは、コミュニティ文化を理解する上で重要である。
道徳的価値観と言語使用法は、社会運動全体で変化しうる。
本稿では、ドメイン間分類タスクを改善するために、インスタンス重み付けによるニューラルネットワーク適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-15T18:15:41Z) - Identifying Morality Frames in Political Tweets using Relational
Learning [27.047907641503762]
道徳的感情はその目標によって動機付けられ、個人または集団的実体に対応することができる。
異なる主体に向けられた道徳的態度を組織化するための表現枠組みである道徳的枠組みを導入する。
本研究では,関係学習モデルを提案し,実体や道徳的基礎に対する道徳的態度を共同で予測する。
論文 参考訳(メタデータ) (2021-09-09T19:48:57Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。