論文の概要: Collaborative Evolution: Multi-Round Learning Between Large and Small Language Models for Emergent Fake News Detection
- arxiv url: http://arxiv.org/abs/2503.21127v1
- Date: Thu, 27 Mar 2025 03:39:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:51:52.776840
- Title: Collaborative Evolution: Multi-Round Learning Between Large and Small Language Models for Emergent Fake News Detection
- Title(参考訳): 協調進化:創発的フェイクニュース検出のための大小言語モデル間の多言語学習
- Authors: Ziyi Zhou, Xiaoming Zhang, Shenghan Tan, Litian Zhang, Chaozhuo Li,
- Abstract要約: 大規模言語モデル(LLM)は、関連するデモンストレーションの欠如と知識のダイナミックな性質のために、偽ニュースを効果的に識別するのに不足している。
本稿では,これらの制約に対処するため,MRCD(Multi-Round Collaboration Detection)を提案する。
我々のフレームワークMRCDは、2つの実世界のデータセットPhemeとTwitter16でSOTA結果を実現し、SLMのみを使用する場合と比較して精度は7.4%と12.8%向上した。
- 参考スコア(独自算出の注目度): 12.65676695802598
- License:
- Abstract: The proliferation of fake news on social media platforms has exerted a substantial influence on society, leading to discernible impacts and deleterious consequences. Conventional deep learning methodologies employing small language models (SLMs) suffer from the necessity for extensive supervised training and the challenge of adapting to rapidly evolving circumstances. Large language models (LLMs), despite their robust zero-shot capabilities, have fallen short in effectively identifying fake news due to a lack of pertinent demonstrations and the dynamic nature of knowledge. In this paper, a novel framework Multi-Round Collaboration Detection (MRCD) is proposed to address these aforementioned limitations. The MRCD framework is capable of enjoying the merits from both LLMs and SLMs by integrating their generalization abilities and specialized functionalities, respectively. Our approach features a two-stage retrieval module that selects relevant and up-to-date demonstrations and knowledge, enhancing in-context learning for better detection of emerging news events. We further design a multi-round learning framework to ensure more reliable detection results. Our framework MRCD achieves SOTA results on two real-world datasets Pheme and Twitter16, with accuracy improvements of 7.4\% and 12.8\% compared to using only SLMs, which effectively addresses the limitations of current models and improves the detection of emergent fake news.
- Abstract(参考訳): ソーシャルメディアプラットフォームにおけるフェイクニュースの拡散は社会に大きな影響を与え、明らかな影響と有害な結果をもたらした。
スモールランゲージモデル(SLM)を用いた従来のディープラーニング手法は、広範な教師付きトレーニングの必要性と、急速に発展する状況に適応することの難しさに悩まされている。
大きな言語モデル(LLM)は、堅牢なゼロショット機能にもかかわらず、関連するデモンストレーションの欠如と知識のダイナミックな性質のために、フェイクニュースを効果的に識別する能力に欠けている。
本稿では,これらの制約に対処するため,MRCD(Multi-Round Collaboration Detection)を提案する。
MRCDフレームワークは、それぞれの一般化能力と特殊機能を統合することにより、LLMとSLMの両方のメリットを享受することができる。
提案手法は,関連性および最新性のある実演と知識を選択する2段階検索モジュールを特徴とする。
さらに、より信頼性の高い検出結果を保証するために、マルチラウンド学習フレームワークを設計する。
我々のフレームワークMRCDは、2つの実世界のデータセットPhemeとTwitter16でSOTA結果を実現し、SLMのみを使用する場合と比較して精度が7.4\%と12.8\%向上し、現在のモデルの限界に効果的に対処し、創発的な偽ニュースの検出を改善する。
関連論文リスト
- Challenges and Innovations in LLM-Powered Fake News Detection: A Synthesis of Approaches and Future Directions [0.0]
偽ニュースの拡散は ソーシャルメディアのプラットフォームを通じて 一般大衆の信頼に 重大なリスクをもたらします
最近の研究には、マルチモーダルフレームワークにおける大規模言語モデルによる検出の強化が含まれている。
このレビューでは、ダイナミックなソーシャルメディアトレンド、リアルタイム、クロスプラットフォーム検出機能への適応性の重大なギャップがさらに明らかになった。
論文 参考訳(メタデータ) (2025-02-01T06:56:17Z) - On Adversarial Robustness of Language Models in Transfer Learning [13.363850350446869]
転送学習は、標準的なパフォーマンス指標を改善する一方で、敵攻撃に対する脆弱性の増加につながることがよく示される。
以上の結果から, モデルサイズ, アーキテクチャ, 適応手法の複雑な相互作用が示唆された。
論文 参考訳(メタデータ) (2024-12-29T15:55:35Z) - A Self-Learning Multimodal Approach for Fake News Detection [35.98977478616019]
偽ニュース分類のための自己学習型マルチモーダルモデルを提案する。
このモデルは、ラベル付きデータを必要としない機能抽出のための堅牢な手法であるコントラスト学習を利用する。
公開データセットを用いた実験結果から,提案モデルがいくつかの最先端の分類手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-08T07:41:44Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [50.079690200471454]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Re-Search for The Truth: Multi-round Retrieval-augmented Large Language Models are Strong Fake News Detectors [38.75533934195315]
大きな言語モデル(LLM)はその顕著な推論と生成能力で知られている。
クレーム検証のための Web ソースからキーエビデンスを自動的に戦略的に抽出する,新たな LLM フレームワークについて紹介する。
我々の枠組みは十分な証拠の取得を保証し、性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T00:35:39Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。