論文の概要: Correcting misinformation on social media with a large language model
- arxiv url: http://arxiv.org/abs/2403.11169v1
- Date: Sun, 17 Mar 2024 10:59:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 18:15:50.860741
- Title: Correcting misinformation on social media with a large language model
- Title(参考訳): 大規模言語モデルを用いたソーシャルメディア上の誤情報訂正
- Authors: Xinyi Zhou, Ashish Sharma, Amy X. Zhang, Tim Althoff,
- Abstract要約: 専門家や平民は、不正確な情報を手動で特定し説明することによって誤情報を修正するのに効果的であることが示されている。
LLMは誤情報を生成しやすくするが、近年の情報不足や、偽のコンテンツや参照を生成する傾向、マルチモーダル情報に対処する際の制限などにより、難航する。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
- 参考スコア(独自算出の注目度): 14.69780455372507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Misinformation undermines public trust in science and democracy, particularly on social media where inaccuracies can spread rapidly. Experts and laypeople have shown to be effective in correcting misinformation by manually identifying and explaining inaccuracies. Nevertheless, this approach is difficult to scale, a concern as technologies like large language models (LLMs) make misinformation easier to produce. LLMs also have versatile capabilities that could accelerate misinformation correction; however, they struggle due to a lack of recent information, a tendency to produce plausible but false content and references, and limitations in addressing multimodal information. To address these issues, we propose MUSE, an LLM augmented with access to and credibility evaluation of up-to-date information. By retrieving contextual evidence and refutations, MUSE can provide accurate and trustworthy explanations and references. It also describes visuals and conducts multimodal searches for correcting multimodal misinformation. We recruit fact-checking and journalism experts to evaluate corrections to real social media posts across 13 dimensions, ranging from the factuality of explanation to the relevance of references. The results demonstrate MUSE's ability to correct misinformation promptly after appearing on social media; overall, MUSE outperforms GPT-4 by 37% and even high-quality corrections from laypeople by 29%. This work underscores the potential of LLMs to combat real-world misinformation effectively and efficiently.
- Abstract(参考訳): 誤報は科学と民主主義に対する大衆の信頼を損なう。
専門家や平民は、不正確な情報を手動で特定し説明することによって誤情報を修正するのに効果的であることが示されている。
しかし、大規模言語モデル(LLM)のような技術が誤情報を生成しやすくするため、このアプローチはスケールするのが困難である。
LLMはまた、誤情報訂正を加速させる万能性も持っているが、近年の情報不足や、偽のコンテンツや参照を生成する傾向、マルチモーダル情報に対処する際の制限などにより、これらは苦戦している。
これらの課題に対処するために,最新の情報へのアクセスと信頼性評価が可能なLLM拡張MUSEを提案する。
MUSEは文脈的証拠と反感を回収することで、正確で信頼できる説明と参照を提供することができる。
また、視覚を記述し、マルチモーダル誤報の訂正のためのマルチモーダル検索を行う。
我々はファクトチェックとジャーナリズムの専門家を雇い、13次元にわたる実際のソーシャルメディア投稿の修正を評価する。
その結果,MUSEはソーシャルメディアに現れるとすぐに誤報を訂正する能力を示し,総合的にはGPT-4が37%,質の高い修正も29%向上した。
この研究は、LLMが現実世界の誤報と効果的に戦う可能性を強調している。
関連論文リスト
- The Future of Combating Rumors? Retrieval, Discrimination, and Generation [5.096418029931098]
人工知能生成コンテンツ(AIGC)技術開発は、誤情報による噂の作成を促進する。
現在の噂検出努力は、誤報を単にラベル付けするだけで不足している。
提案手法は,噂を検知するだけでなく,情報の有効性を否定する説明的コンテンツも提供する。
論文 参考訳(メタデータ) (2024-03-29T14:32:41Z) - LEMMA: Towards LVLM-Enhanced Multimodal Misinformation Detection with
External Knowledge Augmentation [62.01320842738655]
外部知識を付加したLVLM強化マルチモーダル誤報検出システム LEMMAを提案する。
提案手法は,Twitter と Fakeddit のデータセットにおいて,上位ベースライン LVLM の精度を 7% と 13% に向上させる。
論文 参考訳(メタデータ) (2024-02-19T08:32:27Z) - The Earth is Flat? Unveiling Factual Errors in Large Language Models [89.94270049334479]
ChatGPTのような大規模言語モデル(LLM)は、事前学習や微調整の知識が豊富にあるため、様々な応用がある。
それにもかかわらず、医療、ジャーナリズム、教育といった重要な分野に懸念を抱き、事実と常識の誤りを引き起こす傾向にある。
LLMにおける事実不正確な事実を明らかにすることを目的とした,新しい自動テストフレームワークであるFactCheckerを紹介する。
論文 参考訳(メタデータ) (2024-01-01T14:02:27Z) - Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - The Perils & Promises of Fact-checking with Large Language Models [55.869584426820715]
大規模言語モデル(LLM)は、学術論文、訴訟、ニュース記事を書くことをますます信頼されている。
語句検索,文脈データ検索,意思決定などにより,実検におけるLLMエージェントの使用状況を評価する。
本研究は, 文脈情報を用いたLLMの高度化を示すものである。
LLMは事実チェックにおいて有望であるが、不整合の正確性のため注意が必要である。
論文 参考訳(メタデータ) (2023-10-20T14:49:47Z) - Fact-checking information generated by a large language model can
decrease news discernment [7.444681337745949]
本稿では,一般的な大言語モデルが生成した事実確認情報が,政治ニュースの信条や共有意図に与える影響について検討する。
被験者が見出しの正確さを識別したり、正確なニュースを共有したりする能力には影響しないことがわかった。
ポジティブな面では、AIファクトチェック情報は、正しくラベル付けされた真の見出しの共有意図を高める。
論文 参考訳(メタデータ) (2023-08-21T15:47:37Z) - Reinforcement Learning-based Counter-Misinformation Response Generation:
A Case Study of COVID-19 Vaccine Misinformation [19.245814221211415]
非熟練の一般ユーザーは、偽情報に対して積極的に対応している。
本研究では、誤情報と反誤情報応答のペアの2つの新しいデータセットを作成する。
我々は,反情報応答を学習する強化学習に基づくフレームワークであるMisinfoCorrectを提案する。
論文 参考訳(メタデータ) (2023-03-11T15:55:01Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Misinfo Belief Frames: A Case Study on Covid & Climate News [49.979419711713795]
読者がニュースの信頼性や誤った情報の影響をどのように認識するかを理解するための形式主義を提案する。
23.5kの見出しに66kの推論データセットであるMisinfo Belief Frames (MBF) corpusを紹介する。
大規模言語モデルを用いて誤情報フレームを予測した結果,機械生成推論がニュース見出しに対する読者の信頼に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:50:11Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。