論文の概要: Correcting misinformation on social media with a large language model
- arxiv url: http://arxiv.org/abs/2403.11169v4
- Date: Tue, 3 Sep 2024 05:51:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-04 19:15:46.316625
- Title: Correcting misinformation on social media with a large language model
- Title(参考訳): 大規模言語モデルを用いたソーシャルメディア上の誤情報訂正
- Authors: Xinyi Zhou, Ashish Sharma, Amy X. Zhang, Tim Althoff,
- Abstract要約: 現実世界の誤報は、しばしばマルチモーダルであり、因果関係を混同するような様々な戦術で誤解を招くことがある。
このような誤報は、特にソーシャルメディアにおいて、ひどく過小評価され、対処が困難であり、様々な社会的ドメインに害を与えている。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
- 参考スコア(独自算出の注目度): 14.69780455372507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world misinformation, often multimodal, can be partially or fully factual but misleading using diverse tactics like conflating correlation with causation. Such misinformation is severely understudied, challenging to address, and harms various social domains, particularly on social media, where it can spread rapidly. High-quality and timely correction of misinformation that identifies and explains its (in)accuracies effectively reduces false beliefs. Despite the wide acceptance of manual correction, it is difficult to be timely and scalable. While LLMs have versatile capabilities that could accelerate misinformation correction, they struggle due to a lack of recent information, a tendency to produce false content, and limitations in addressing multimodal information. We propose MUSE, an LLM augmented with access to and credibility evaluation of up-to-date information. By retrieving evidence as refutations or supporting context, MUSE identifies and explains content (in)accuracies with references. It conducts multimodal retrieval and interprets visual content to verify and correct multimodal content. Given the absence of a comprehensive evaluation approach, we propose 13 dimensions of misinformation correction quality. Then, fact-checking experts evaluate responses to social media content that are not presupposed to be misinformation but broadly include (partially) incorrect and correct posts that may (not) be misleading. Results demonstrate MUSE's ability to write high-quality responses to potential misinformation--across modalities, tactics, domains, political leanings, and for information that has not previously been fact-checked online--within minutes of its appearance on social media. Overall, MUSE outperforms GPT-4 by 37% and even high-quality responses from laypeople by 29%. Our work provides a general methodological and evaluative framework to correct misinformation at scale.
- Abstract(参考訳): 現実世界の誤報は、しばしばマルチモーダルであり、部分的にあるいは完全に事実であるが、因果関係を混同するような多様な戦術を用いて誤解を招くことがある。
このような誤報は深刻な過小評価を受け、対処が困難であり、特に急速に拡散するソーシャルメディアにおいて、様々な社会的ドメインに害を与えている。
偽情報の高品質でタイムリーな修正は、その正確さを識別し、説明することで、偽の信条を効果的に減らす。
手動修正が広く受け入れられているにもかかわらず、タイムリーでスケーラブルであることは困難である。
LLMには、誤情報訂正を加速させる汎用的な機能があるが、最近の情報不足、偽コンテンツを生成する傾向、マルチモーダル情報に対処する際の制限などにより、それらは苦戦している。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
MUSEは、証拠を反証として回収したり、コンテキストをサポートすることで、コンテンツ(イン)の正確さを参照で識別し、説明します。
マルチモーダル検索を行い、視覚コンテンツを解釈して、マルチモーダルコンテンツの検証と修正を行う。
包括的評価手法が欠如していることから,誤情報補正の品質の13次元について提案する。
次に、ファクトチェックの専門家は、誤情報を前提としないと思われるソーシャルメディアコンテンツに対する反応を評価し、(一部は)誤解を招く可能性のある不正確で正しい投稿を広範囲に含んでいる。
その結果、MUSEは、あらゆるモダリティ、戦術、ドメイン、政治的傾き、そしてこれまでオンラインで事実確認されていない情報に対して、ソーシャルメディアに表示されてから数分も経たないうちに、潜在的な誤報に対する高品質な応答を書く能力を示した。
MUSEは総じてGPT-4を37%上回り、質の高い反応も29%上回っている。
我々の研究は、大規模な誤情報を修正するための一般的な方法論と評価の枠組みを提供する。
関連論文リスト
- Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - The Future of Combating Rumors? Retrieval, Discrimination, and Generation [5.096418029931098]
人工知能生成コンテンツ(AIGC)技術開発は、誤情報による噂の作成を促進する。
現在の噂検出努力は、誤報を単にラベル付けするだけで不足している。
提案手法は,噂を検知するだけでなく,情報の有効性を否定する説明的コンテンツも提供する。
論文 参考訳(メタデータ) (2024-03-29T14:32:41Z) - LEMMA: Towards LVLM-Enhanced Multimodal Misinformation Detection with External Knowledge Augmentation [58.524237916836164]
外部知識を付加したLVLM強化マルチモーダル誤報検出システム LEMMAを提案する。
提案手法は,Twitter と Fakeddit のデータセットにおいて,上位ベースライン LVLM の精度を 7% と 13% に向上させる。
論文 参考訳(メタデータ) (2024-02-19T08:32:27Z) - Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - The Perils & Promises of Fact-checking with Large Language Models [55.869584426820715]
大規模言語モデル(LLM)は、学術論文、訴訟、ニュース記事を書くことをますます信頼されている。
語句検索,文脈データ検索,意思決定などにより,実検におけるLLMエージェントの使用状況を評価する。
本研究は, 文脈情報を用いたLLMの高度化を示すものである。
LLMは事実チェックにおいて有望であるが、不整合の正確性のため注意が必要である。
論文 参考訳(メタデータ) (2023-10-20T14:49:47Z) - Fact-checking information generated by a large language model can
decrease news discernment [7.444681337745949]
本稿では,一般的な大言語モデルが生成した事実確認情報が,政治ニュースの信条や共有意図に与える影響について検討する。
被験者が見出しの正確さを識別したり、正確なニュースを共有したりする能力には影響しないことがわかった。
ポジティブな面では、AIファクトチェック情報は、正しくラベル付けされた真の見出しの共有意図を高める。
論文 参考訳(メタデータ) (2023-08-21T15:47:37Z) - Reinforcement Learning-based Counter-Misinformation Response Generation:
A Case Study of COVID-19 Vaccine Misinformation [19.245814221211415]
非熟練の一般ユーザーは、偽情報に対して積極的に対応している。
本研究では、誤情報と反誤情報応答のペアの2つの新しいデータセットを作成する。
我々は,反情報応答を学習する強化学習に基づくフレームワークであるMisinfoCorrectを提案する。
論文 参考訳(メタデータ) (2023-03-11T15:55:01Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Misinfo Belief Frames: A Case Study on Covid & Climate News [49.979419711713795]
読者がニュースの信頼性や誤った情報の影響をどのように認識するかを理解するための形式主義を提案する。
23.5kの見出しに66kの推論データセットであるMisinfo Belief Frames (MBF) corpusを紹介する。
大規模言語モデルを用いて誤情報フレームを予測した結果,機械生成推論がニュース見出しに対する読者の信頼に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:50:11Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。