論文の概要: MisinfoEval: Generative AI in the Era of "Alternative Facts"
- arxiv url: http://arxiv.org/abs/2410.09949v1
- Date: Tue, 15 Oct 2024 02:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 04:03:30.873785
- Title: MisinfoEval: Generative AI in the Era of "Alternative Facts"
- Title(参考訳): MisinfoEval: 代替ファクトの時代における生成AI
- Authors: Saadia Gabriel, Liang Lyu, James Siderius, Marzyeh Ghassemi, Jacob Andreas, Asu Ozdaglar,
- Abstract要約: 本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
- 参考スコア(独自算出の注目度): 50.069577397751175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The spread of misinformation on social media platforms threatens democratic processes, contributes to massive economic losses, and endangers public health. Many efforts to address misinformation focus on a knowledge deficit model and propose interventions for improving users' critical thinking through access to facts. Such efforts are often hampered by challenges with scalability, and by platform users' personal biases. The emergence of generative AI presents promising opportunities for countering misinformation at scale across ideological barriers. In this paper, we introduce a framework (MisinfoEval) for generating and comprehensively evaluating large language model (LLM) based misinformation interventions. We present (1) an experiment with a simulated social media environment to measure effectiveness of misinformation interventions, and (2) a second experiment with personalized explanations tailored to the demographics and beliefs of users with the goal of countering misinformation by appealing to their pre-existing values. Our findings confirm that LLM-based interventions are highly effective at correcting user behavior (improving overall user accuracy at reliability labeling by up to 41.72%). Furthermore, we find that users favor more personalized interventions when making decisions about news reliability and users shown personalized interventions have significantly higher accuracy at identifying misinformation.
- Abstract(参考訳): ソーシャルメディアプラットフォームにおける誤報の拡散は、民主的なプロセスを脅かし、大きな経済的損失をもたらし、公衆衛生を脅かす。
誤情報に対処するための多くの取り組みは、知識不足モデルに注目し、事実へのアクセスを通じてユーザの批判的思考を改善するための介入を提案する。
このような取り組みは、スケーラビリティに関する課題や、プラットフォームのユーザの個人的な偏見によって、しばしば妨げられます。
生成AIの出現は、イデオロギー的障壁を越えて大規模に誤情報に対処する有望な機会を提示する。
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワーク(MisinfoEval)を提案する。
本研究では,(1)誤情報介入の効果を測定するためのシミュレーションソーシャルメディア環境を用いた実験,(2)既存の価値観に訴えて誤情報に対処する目的で,利用者の人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LCMによる介入はユーザ行動の修正に極めて有効であることが確認された(信頼性ラベルの精度を最大41.72%向上させる)。
さらに、ニュースの信頼性に関する判断を行う際には、よりパーソナライズされた介入が好まれており、また、パーソナライズされた介入が誤情報を識別する際の精度が著しく高いことが判明した。
関連論文リスト
- Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Debiasing Recommendation by Learning Identifiable Latent Confounders [49.16119112336605]
コンバウンディングバイアスは、ユーザの露出とフィードバックの両方に影響を与える未測定変数の存在によって生じる。
既存の手法では,(1) 未測定変数について不確定な仮定を行うか,(2) 潜伏した共同創設者を直接ユーザの露出から推測する。
本稿では、上記の非識別問題の解決にプロキシ変数の集合を利用する新しい方法、すなわち、識別可能なデコノウ(iDCF)を提案する。
論文 参考訳(メタデータ) (2023-02-10T05:10:26Z) - Addressing contingency in algorithmic (mis)information classification:
Toward a responsible machine learning agenda [0.9659642285903421]
データサイエンティストは、モデルトレーニングとテストに使用される「真実の情報源の客観性、信頼性、正当性」にスタンスを取る必要がある。
彼らの報告された高い正確さと性能にもかかわらず、ML駆動のモデレーションシステムは、オンラインの公開討論を形作り、不正な検閲や偽の信念の強化のような下流のネガティブな影響を生み出す可能性がある。
論文 参考訳(メタデータ) (2022-10-05T17:34:51Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - Characterizing User Susceptibility to COVID-19 Misinformation on Twitter [40.0762273487125]
本研究は、パンデミックのオンライン誤報に弱い人口を構成する人々への回答を試みる。
我々は、ソーシャルボットから、新型コロナウイルス関連の誤情報に関するさまざまなレベルのエンゲージメントを持つ人間まで、さまざまなタイプのユーザーを区別する。
次に、新型コロナウイルスの誤情報に対する感受性と相関する、ユーザのオンライン機能と状況予測を識別する。
論文 参考訳(メタデータ) (2021-09-20T13:31:15Z) - Incentives for Federated Learning: a Hypothesis Elicitation Approach [10.452709936265274]
フェデレーション学習は、分散データソースから機械学習モデルを集めるための有望なパラダイムを提供する。
信頼性のあるフェデレート学習システムの成功は、分散された自己関心のあるユーザーが積極的に参加するという前提に基づいている。
本稿では,ローカルなユーザ側機械学習モデルの真理レポートをインセンティブ化する手法を提案する。
論文 参考訳(メタデータ) (2020-07-21T04:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。