論文の概要: Can Large Language Models Detect Rumors on Social Media?
- arxiv url: http://arxiv.org/abs/2402.03916v2
- Date: Thu, 8 Feb 2024 16:09:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 11:28:58.834409
- Title: Can Large Language Models Detect Rumors on Social Media?
- Title(参考訳): 大規模言語モデルはソーシャルメディアの噂を検知できるか?
- Authors: Qiang Liu, Xiang Tao, Junfei Wu, Shu Wu, Liang Wang
- Abstract要約: ソーシャルメディア上でのうわさ検出にLarge Language Models (LLMs) を用いることを検討した。
そこで我々は,LLMにニュースやコメントの重要な手がかりを推論するように指導する手法として,LeRuD(LeRuD)アプローチを提案する。
LeRuDは最先端の噂検出モデルを3.2%から7.7%上回っている。
- 参考スコア(独自算出の注目度): 21.678652268122296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we investigate to use Large Language Models (LLMs) for rumor
detection on social media. However, it is challenging for LLMs to reason over
the entire propagation information on social media, which contains news
contents and numerous comments, due to LLMs may not concentrate on key clues in
the complex propagation information, and have trouble in reasoning when facing
massive and redundant information. Accordingly, we propose an LLM-empowered
Rumor Detection (LeRuD) approach, in which we design prompts to teach LLMs to
reason over important clues in news and comments, and divide the entire
propagation information into a Chain-of-Propagation for reducing LLMs' burden.
We conduct extensive experiments on the Twitter and Weibo datasets, and LeRuD
outperforms several state-of-the-art rumor detection models by 3.2% to 7.7%.
Meanwhile, by applying LLMs, LeRuD requires no data for training, and thus
shows more promising rumor detection ability in few-shot or zero-shot
scenarios.
- Abstract(参考訳): 本研究では,ソーシャルメディア上でのうわさ検出にLarge Language Models (LLMs) を用いることを検討した。
しかし、llmは、複雑な伝播情報における重要な手がかりに集中せず、大規模で冗長な情報に直面した際に推論に支障をきたす可能性があるため、ニュース内容や多数のコメントを含むソーシャルメディア上の伝達情報全体をllmが推論することは困難である。
そこで,本研究では,ニュースやコメントにおいて重要な手がかりを推論するために,llmに提案手法を考案し,伝達情報全体をチェーン・オブ・プロパゲーションに分割し,llmの負担を軽減する手法を提案する。
我々はTwitterとWeiboデータセットで広範な実験を行い、LeRuDは最先端の噂検出モデルを3.2%から7.7%上回っている。
一方、LLMを適用することで、LeRuDはトレーニングにデータを必要としないため、ほとんどショットやゼロショットのシナリオでより有望な噂検出能力を示す。
関連論文リスト
- Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When
and What to Retrieve for LLMs [64.0049955128318]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - LEMMA: Towards LVLM-Enhanced Multimodal Misinformation Detection with
External Knowledge Augmentation [62.01320842738655]
外部知識を付加したLVLM強化マルチモーダル誤報検出システム LEMMAを提案する。
提案手法は,Twitter と Fakeddit のデータセットにおいて,上位ベースライン LVLM の精度を 7% と 13% に向上させる。
論文 参考訳(メタデータ) (2024-02-19T08:32:27Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Disinformation Capabilities of Large Language Models [0.564232659769944]
本稿では,現在世代の大言語モデル(LLM)の非情報化能力について述べる。
20個の偽情報物語を用いた10個のLDMの能力評価を行った。
LLMは、危険な偽情報の物語に一致する説得力のあるニュース記事を生成することができると結論付けている。
論文 参考訳(メタデータ) (2023-11-15T10:25:30Z) - Combating Misinformation in the Age of LLMs: Opportunities and
Challenges [21.712051537924136]
LLM(Large Language Models)の出現は、誤情報と戦う環境を再構築する大きな可能性を秘めている。
一方、LLMは、その深い世界知識と強力な推論能力のために、誤情報と戦うための有望な機会をもたらす。
一方,LLMは大規模に誤情報を生成するために容易に活用できるという点が重要な課題である。
論文 参考訳(メタデータ) (2023-11-09T00:05:27Z) - Large Language Models Help Humans Verify Truthfulness -- Except When They Are Convincingly Wrong [35.64962031447787]
大規模言語モデル(LLM)は、Web上の情報へのアクセスにますます使われています。
80人のクラウドワーカーによる実験では,事実チェックを容易にするために,言語モデルと検索エンジン(情報検索システム)を比較した。
LLMの説明を読むユーザーは、類似の精度を保ちながら、検索エンジンを使用するものよりもはるかに効率的である。
論文 参考訳(メタデータ) (2023-10-19T08:09:58Z) - Can LLM-Generated Misinformation Be Detected? [18.378744138365537]
大型言語モデル(LLM)は誤情報を生成するために利用することができる。
LLMが生成した誤報は、人間が書いた誤報よりも有害か?
論文 参考訳(メタデータ) (2023-09-25T00:45:07Z) - Bad Actor, Good Advisor: Exploring the Role of Large Language Models in
Fake News Detection [22.658378054986624]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示している。
LLMは望ましいマルチパースペクティブな合理性を提供するが、基本的なSLMである細調整のBERTよりも性能が低い。
偽ニュース検出において、現在のLSMは微調整されたSLMの代わりにはならないが、SLMの優れたアドバイザである可能性が示唆された。
論文 参考訳(メタデータ) (2023-09-21T16:47:30Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z) - Can Large Language Models Transform Computational Social Science? [79.62471267510963]
大規模言語モデル(LLM)は、(トレーニングデータなしで)ゼロショットで多くの言語処理タスクを実行することができる
この研究は、計算社会科学ツールとしてLLMを使用するためのロードマップを提供する。
論文 参考訳(メタデータ) (2023-04-12T17:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。