論文の概要: Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection
- arxiv url: http://arxiv.org/abs/2407.08952v4
- Date: Tue, 11 Mar 2025 13:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 16:15:11.281637
- Title: Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection
- Title(参考訳): ファウショットフェイクニュース検出のための知識誘導型フレームワーク
- Authors: Ye Liu, Jiajun Zhu, Xukai Liu, Haoyu Tang, Yanghai Zhang, Kai Zhang, Xiaofang Zhou, Enhong Chen,
- Abstract要約: Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
- 参考スコア(独自算出の注目度): 50.079690200471454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-Shot Fake News Detection (FS-FND) aims to distinguish inaccurate news from real ones in extremely low-resource scenarios. This task has garnered increased attention due to the widespread dissemination and harmful impact of fake news on social media. Large Language Models (LLMs) have demonstrated competitive performance with the help of their rich prior knowledge and excellent in-context learning abilities. However, existing methods face significant limitations, such as the Understanding Ambiguity and Information Scarcity, which significantly undermine the potential of LLMs. To address these shortcomings, we propose a Dual-perspective Knowledge-guided Fake News Detection (DKFND) model, designed to enhance LLMs from both inside and outside perspectives. Specifically, DKFND first identifies the knowledge concepts of each news article through a Detection Module. Subsequently, DKFND creatively designs an Investigation Module to retrieve inside and outside valuable information concerning to the current news, followed by another Judge Module to evaluate the relevance and confidence of them. Finally, a Determination Module further derives two respective predictions and obtain the final result. Extensive experiments on two public datasets show the efficacy of our proposed method, particularly in low-resource settings.
- Abstract(参考訳): Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
大きな言語モデル(LLM)は、豊富な事前知識と優れたコンテキスト内学習能力の助けを借りて、競争性能を実証している。
しかし、既存の手法では、LLMの可能性を著しく損なう「理解のあいまいさ」や「インフォメーション・スカシティ」といった重大な制限に直面している。
これらの欠点に対処するために,内外からLLMを強化するために設計されたDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
具体的には、DKFNDはまず、検出モジュールを通じて各ニュース記事の知識概念を識別する。
その後、DKFNDは、現在のニュースに関する情報と外部の貴重な情報を検索するための調査モジュールを創造的に設計し、続いて、その関連性と信頼性を評価する別の審査モジュールを作成した。
最後に、決定モジュールは、さらに2つの予測を導き、最終的な結果を得る。
2つの公開データセットに対する大規模な実験により,提案手法の有効性,特に低リソース環境での有効性が示された。
関連論文リスト
- Collaborative Evolution: Multi-Round Learning Between Large and Small Language Models for Emergent Fake News Detection [12.65676695802598]
大規模言語モデル(LLM)は、関連するデモンストレーションの欠如と知識のダイナミックな性質のために、偽ニュースを効果的に識別するのに不足している。
本稿では,これらの制約に対処するため,MRCD(Multi-Round Collaboration Detection)を提案する。
我々のフレームワークMRCDは、2つの実世界のデータセットPhemeとTwitter16でSOTA結果を実現し、SLMのみを使用する場合と比較して精度は7.4%と12.8%向上した。
論文 参考訳(メタデータ) (2025-03-27T03:39:26Z) - External Reliable Information-enhanced Multimodal Contrastive Learning for Fake News Detection [10.575512607941839]
ERIC-FNDは、フェイクニュース検出のための情報強化型マルチモーダルコントラスト学習フレームワークである。
実験は、X(Twitter)とWeiboという、さまざまな言語で一般的に使用されている2つのデータセットで行われます。
論文 参考訳(メタデータ) (2025-03-05T02:07:38Z) - $\textit{X}^2$-DFD: A framework for e${X}$plainable and e${X}$tendable Deepfake Detection [52.14468236527728]
3つのコアモジュールからなる新しいフレームワークX2$-DFDを提案する。
最初のモジュールであるモデル特徴評価(MFA)は、MLLMに固有の偽機能の検出能力を計測し、これらの機能の下位ランキングを提供する。
第2のモジュールであるStrong Feature Strengthening (SFS)は、上位機能に基づいて構築されたデータセット上でMLLMを微調整することで、検出と説明機能を強化する。
第3のモジュールであるWak Feature Supplementing (WFS)は、外部専用の機能を統合することで、低階機能における微調整MLLMの機能を改善する。
論文 参考訳(メタデータ) (2024-10-08T15:28:33Z) - Dynamic Analysis and Adaptive Discriminator for Fake News Detection [59.41431561403343]
偽ニュース検出のための動的解析・適応識別器(DAAD)手法を提案する。
知識に基づく手法では,モンテカルロ木探索アルゴリズムを導入し,大規模言語モデルの自己表現能力を活用する。
意味に基づく手法では、偽ニュース生成のメカニズムを明らかにするために、典型的偽造パターンを4つ定義する。
論文 参考訳(メタデータ) (2024-08-20T14:13:54Z) - Fake News Detection and Manipulation Reasoning via Large Vision-Language Models [38.457805116130004]
本稿では,Human-centric and Fact-related Fake News(HFFN)と呼ばれる偽ニュースの検出と操作の推論のためのベンチマークを紹介する。
このベンチマークでは、詳細なマニュアルアノテーションによって、人間の中心性と、高い事実的関連性を強調している。
M-DRUM(Multi-modal News Detection and Reasoning langUage Model)が提示される。
論文 参考訳(メタデータ) (2024-07-02T08:16:43Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - COOL: Comprehensive Knowledge Enhanced Prompt Learning for Domain Adaptive Few-shot Fake News Detection [16.478355864072814]
ドメイン適応型小ショットFND.Owlのための包括的knedge拡張PrOmpt学習法であるCOOLを提案する。
具体的には,外部からのニュースに正あるいは負の相関を持つ構造化知識と非構造化知識の両方を抽出する包括的知識抽出モジュールを提案する。
論文 参考訳(メタデータ) (2024-06-16T09:41:25Z) - Learning Background Prompts to Discover Implicit Knowledge for Open Vocabulary Object Detection [101.15777242546649]
Open vocabulary Object Detection (OVD) は、ベースと新規の両方のカテゴリからオブジェクトを認識できる最適なオブジェクト検出器を求めることを目的としている。
近年の進歩は、知識蒸留を利用して、事前訓練された大規模視覚言語モデルからオブジェクト検出のタスクに洞察力のある知識を伝達している。
本稿では,暗黙的背景知識を活用するための学習バックグラウンドプロンプトを提案するため,LBPと呼ばれる新しいOVDフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-01T17:32:26Z) - Re-Search for The Truth: Multi-round Retrieval-augmented Large Language Models are Strong Fake News Detectors [38.75533934195315]
大きな言語モデル(LLM)はその顕著な推論と生成能力で知られている。
クレーム検証のための Web ソースからキーエビデンスを自動的に戦略的に抽出する,新たな LLM フレームワークについて紹介する。
我々の枠組みは十分な証拠の取得を保証し、性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T00:35:39Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - A Multi-Policy Framework for Deep Learning-Based Fake News Detection [0.31498833540989407]
フェイクニュース検出を自動化するフレームワークであるMPSC(Multi-Policy Statement Checker)を導入する。
MPSCは、深層学習技術を用いて、文自体とその関連するニュース記事を分析し、それが信頼できるか疑わしいかを予測する。
論文 参考訳(メタデータ) (2022-06-01T21:25:21Z) - SEMI-FND: Stacked Ensemble Based Multimodal Inference For Faster Fake
News Detection [1.885336013528858]
フェイクニュースを迅速かつ正確に識別することが義務づけられている。
SEMI-FNDは、全パラメータを少なくとも20%削減し、テキストの単調パラメトリックを60%削減する。
重ねられたアンサンブルの適用は、他のアプローチよりもFNDを大幅に改善する。
論文 参考訳(メタデータ) (2022-05-17T07:51:55Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。