論文の概要: Designing for Engaging with News using Moral Framing towards Bridging
Ideological Divides
- arxiv url: http://arxiv.org/abs/2101.11231v4
- Date: Fri, 21 Jan 2022 05:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 20:17:36.117054
- Title: Designing for Engaging with News using Moral Framing towards Bridging
Ideological Divides
- Title(参考訳): モラルフレーミングを用いたイデオロギー分断の橋渡しに向けたニュース参加設計
- Authors: Jessica Wang, Amy Zhang, David Karger
- Abstract要約: 本稿は、モラル財団として知られる基本的人的価値の枠組みを用いて、米国のニュース消費者に関与するよう教育することで、イデオロギー部門に対処するための作業設計システムについて述べる。
我々は、ユーザーが反対の見解に対する理解に挑戦するように促す一連の新機能を設計し、実装する。
本研究は,71名の参加者を6~8日間に分けて各デザインのフィールド評価を行い,対象者の道徳的価値を再設定したことを示す証拠を見出した。
- 参考スコア(独自算出の注目度): 6.177805579183265
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Society is showing signs of strong ideological polarization. When pushed to
seek perspectives different from their own, people often reject diverse ideas
or find them unfathomable. Work has shown that framing controversial issues
using the values of the audience can improve understanding of opposing views.
In this paper, we present our work designing systems for addressing ideological
division through educating U.S. news consumers to engage using a framework of
fundamental human values known as Moral Foundations. We design and implement a
series of new features that encourage users to challenge their understanding of
opposing views, including annotation of moral frames in news articles,
discussion of those frames via inline comments, and recommendations based on
relevant moral frames. We describe two versions of features -- the first
covering a suite of ways to interact with moral framing in news, and the second
tailored towards collaborative annotation and discussion. We conduct a field
evaluation of each design iteration with 71 participants in total over a period
of 6-8 days, finding evidence suggesting users learned to re-frame their
discourse in moral values of the opposing side. Our work provides several
design considerations for building systems to engage with moral framing.
- Abstract(参考訳): 社会は強いイデオロギー的分極の兆しを見せている。
自分自身と異なる視点を求めるように迫られると、人々は多種多様な考えを拒絶するか、それらを不成功とみなすことが多い。
作業によると、聴衆の価値を使って議論を呼ぶ問題は、反対意見の理解を改善することができる。
本稿では,モーラル・ファンデーションとして知られる基本的人的価値の枠組みを用いて,アメリカのニュース消費者を教育し,イデオロギー的区分に対処するための作業設計システムを提案する。
記事中のモラルフレームの注釈,インラインコメントによるフレームの議論,関連するモラルフレームに基づくレコメンデーションなど,ユーザが対立するビューに対する理解に挑戦することを促す,一連の新機能を設計し,実装する。
まずは、ニュースにおける道徳的フレーミングと対話するための一連の方法をカバーし、次にコラボレーティブなアノテーションと議論のために調整します。
本研究は,71名の参加者を6~8日間に分けて各デザインイテレーションのフィールド評価を行い,相手の道徳的価値で会話を再編成する方法を学習したことを示唆する証拠を見出した。
私たちの研究は、モラルフレーミングに取り組むためのシステム構築のために、いくつかの設計上の考慮点を提供します。
関連論文リスト
- MOTIV: Visual Exploration of Moral Framing in Social Media [9.314312944316962]
本稿では、ソーシャルメディア上での道徳的レトリックの分析のためのビジュアル・コンピューティング・フレームワークを提案する。
マイクロブログデータで表されるこれらの道徳的次元のそれぞれの背後にあるテクスタイエン、テキスタイル、テキスタイルをデコンストラクションし視覚化するための方法論を提案する。
この視覚的アプローチは、迅速かつ協調的な仮説テストをサポートし、議論を呼んでいる政治的問題の背後にある道徳的価値に関する洞察を得るのに役立ちます。
論文 参考訳(メタデータ) (2024-03-15T16:11:58Z) - MoralBERT: A Fine-Tuned Language Model for Capturing Moral Values in Social Discussions [4.747987317906765]
道徳的価値は、情報を評価し、意思決定し、重要な社会問題に関する判断を形成する上で、基本的な役割を担います。
自然言語処理(NLP)の最近の進歩は、人文コンテンツにおいて道徳的価値を測ることができることを示している。
本稿では、社会談話における道徳的感情を捉えるために微調整された言語表現モデルであるMoralBERTを紹介する。
論文 参考訳(メタデータ) (2024-03-12T14:12:59Z) - Lego: Learning to Disentangle and Invert Personalized Concepts Beyond Object Appearance in Text-to-Image Diffusion Models [60.80960965051388]
形容詞と動詞は名詞で絡み合っている(目的語)
レゴは、シンプルだが効果的な対象分離ステップを使用して、関連する主題から概念を分離する。
レゴで作られたコンセプトは、ベースラインと比較して70%以上好まれていた。
論文 参考訳(メタデータ) (2023-11-23T07:33:38Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - MindDial: Belief Dynamics Tracking with Theory-of-Mind Modeling for Situated Neural Dialogue Generation [62.44907105496227]
MindDialは、Mind-of-mindモデリングで位置決め自由形式の応答を生成できる、新しい対話型フレームワークである。
本研究では、話者の信念と話者の聴取者の信念を予測できる明示的なマインドモジュールを導入する。
筆者らのフレームワークは,提案手法と微調整モデルの両方に適用され,共通地盤アライメントとネゴシエーションの両方を含むシナリオで評価される。
論文 参考訳(メタデータ) (2023-06-27T07:24:32Z) - Towards Few-Shot Identification of Morality Frames using In-Context
Learning [24.29993132301275]
我々は,Large Language Models (LLMs) を用いた心理言語学的な概念であるMorality Framesの少数ショット識別について検討した。
道徳的フレームは、テキストで表される道徳的感情の全体像を提供する表現フレームワークである。
本稿では,事前訓練された大規模言語モデルを用いた道徳的枠組みの同定手法を提案する。
論文 参考訳(メタデータ) (2023-02-03T23:26:59Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。