論文の概要: Countering Misinformation via Emotional Response Generation
- arxiv url: http://arxiv.org/abs/2311.10587v1
- Date: Fri, 17 Nov 2023 15:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-20 14:19:00.139162
- Title: Countering Misinformation via Emotional Response Generation
- Title(参考訳): 感情応答生成による誤報の対処
- Authors: Daniel Russo, Shane Peter Kaszefski-Yaschuk, Jacopo Staiano, Marco
Guerini
- Abstract要約: ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
- 参考スコア(独自算出の注目度): 15.383062216223971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of misinformation on social media platforms (SMPs) poses a
significant danger to public health, social cohesion and ultimately democracy.
Previous research has shown how social correction can be an effective way to
curb misinformation, by engaging directly in a constructive dialogue with users
who spread -- often in good faith -- misleading messages. Although professional
fact-checkers are crucial to debunking viral claims, they usually do not engage
in conversations on social media. Thereby, significant effort has been made to
automate the use of fact-checker material in social correction; however, no
previous work has tried to integrate it with the style and pragmatics that are
commonly employed in social media communication. To fill this gap, we present
VerMouth, the first large-scale dataset comprising roughly 12 thousand
claim-response pairs (linked to debunking articles), accounting for both
SMP-style and basic emotions, two factors which have a significant role in
misinformation credibility and spreading. To collect this dataset we used a
technique based on an author-reviewer pipeline, which efficiently combines LLMs
and human annotators to obtain high-quality data. We also provide comprehensive
experiments showing how models trained on our proposed dataset have significant
improvements in terms of output quality and generalization capabilities.
- Abstract(参考訳): ソーシャルメディアプラットフォーム(SMP)における誤報の拡散は、公衆衛生、社会的結束、そして究極的には民主主義に重大な危険をもたらす。
これまでの研究で、社会的修正が誤情報の抑制に有効な方法であることが示されている。
プロのファクトチェックはバイラルな主張を広めるのに不可欠だが、ソーシャルメディア上での会話は行わない。
これにより、社会補正におけるファクトチェッカー教材の使用の自動化に多大な努力がかけられているが、ソーシャルメディア通信で一般的に使われるスタイルや実用的手法と統合しようとする試みは、これまで行われていない。
このギャップを埋めるために,我々は,smpスタイルの感情と基本感情の両方を考慮し,約1万1千のクレーム応答対(記事の削除に関連している)からなる,最初の大規模データセットであるvermouthを提案する。
このデータセットの収集には,LLMと人間アノテータを効率よく組み合わせて高品質なデータを得る,著者レビューパイプラインに基づく手法を用いた。
また、提案するデータセットでトレーニングされたモデルが、出力品質と一般化能力に関して大幅に改善されていることを示す包括的な実験も提供します。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - PropaInsight: Toward Deeper Understanding of Propaganda in Terms of Techniques, Appeals, and Intent [71.20471076045916]
プロパガンダは世論の形成と偽情報の拡散に重要な役割を果たしている。
Propainsightはプロパガンダを体系的に、技術、覚醒的魅力、そして根底にある意図に分解する。
Propagazeは、人間の注釈付きデータと高品質な合成データを組み合わせる。
論文 参考訳(メタデータ) (2024-09-19T06:28:18Z) - Crowd Intelligence for Early Misinformation Prediction on Social Media [29.494819549803772]
本稿では,クラウドインテリジェンスに基づく早期誤報予測手法であるCROWDSHIELDを紹介する。
私たちは2つの次元(スタンスとクレーム)を捉えるためにQラーニングを採用しています。
我々は手動で誤情報検出を行うTwitterコーパスであるMISTを提案する。
論文 参考訳(メタデータ) (2024-08-08T13:45:23Z) - Correcting misinformation on social media with a large language model [14.69780455372507]
現実世界の誤報は、しばしばマルチモーダルであり、因果関係を混同するような様々な戦術で誤解を招くことがある。
このような誤報は、特にソーシャルメディアにおいて、ひどく過小評価され、対処が困難であり、様々な社会的ドメインに害を与えている。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
論文 参考訳(メタデータ) (2024-03-17T10:59:09Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Automated Claim Matching with Large Language Models: Empowering
Fact-Checkers in the Fight Against Misinformation [11.323961700172175]
FACT-GPTは、大規模言語モデルを用いたファクトチェックのクレームマッチングフェーズを自動化するために設計されたフレームワークである。
このフレームワークは、ファクトチェッカーによって以前否定された主張を支持したり、否定したりする新しいソーシャルメディアコンテンツを識別する。
FACT-GPTを公衆衛生に関連するソーシャルメディアコンテンツのデータセットとして評価した。
論文 参考訳(メタデータ) (2023-10-13T16:21:07Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Reinforcement Learning-based Counter-Misinformation Response Generation:
A Case Study of COVID-19 Vaccine Misinformation [19.245814221211415]
非熟練の一般ユーザーは、偽情報に対して積極的に対応している。
本研究では、誤情報と反誤情報応答のペアの2つの新しいデータセットを作成する。
我々は,反情報応答を学習する強化学習に基づくフレームワークであるMisinfoCorrectを提案する。
論文 参考訳(メタデータ) (2023-03-11T15:55:01Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。