論文の概要: Explainable Fake News Detection With Large Language Model via Defense Among Competing Wisdom
- arxiv url: http://arxiv.org/abs/2405.03371v2
- Date: Thu, 20 Jun 2024 04:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 04:08:57.209578
- Title: Explainable Fake News Detection With Large Language Model via Defense Among Competing Wisdom
- Title(参考訳): 競合する知恵の防衛による大規模言語モデルによる説明可能なフェイクニュース検出
- Authors: Bo Wang, Jing Ma, Hongzhan Lin, Zhiwei Yang, Ruichao Yang, Yuan Tian, Yi Chang,
- Abstract要約: 本稿では,防衛をベースとした説明可能なフェイクニュース検出フレームワークを提案する。
具体的には,まず,集団の知恵を2つの競合相手に分割し,それぞれに有能な証拠を検出するエビデンス抽出モジュールを提案する。
そこで我々は,大きな言語モデルを用いたプロンプトベースのモジュールを設計し,2つの正当性に対する理由を推測することによって正当化を生成する。
- 参考スコア(独自算出の注目度): 19.027690459807197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most fake news detection methods learn latent feature representations based on neural networks, which makes them black boxes to classify a piece of news without giving any justification. Existing explainable systems generate veracity justifications from investigative journalism, which suffer from debunking delayed and low efficiency. Recent studies simply assume that the justification is equivalent to the majority opinions expressed in the wisdom of crowds. However, the opinions typically contain some inaccurate or biased information since the wisdom of crowds is uncensored. To detect fake news from a sea of diverse, crowded and even competing narratives, in this paper, we propose a novel defense-based explainable fake news detection framework. Specifically, we first propose an evidence extraction module to split the wisdom of crowds into two competing parties and respectively detect salient evidences. To gain concise insights from evidences, we then design a prompt-based module that utilizes a large language model to generate justifications by inferring reasons towards two possible veracities. Finally, we propose a defense-based inference module to determine veracity via modeling the defense among these justifications. Extensive experiments conducted on two real-world benchmarks demonstrate that our proposed method outperforms state-of-the-art baselines in terms of fake news detection and provides high-quality justifications.
- Abstract(参考訳): ほとんどの偽ニュース検出方法はニューラルネットワークに基づいて潜在特徴表現を学習するので、正当化せずにニュースを分類するブラックボックスになる。
既存の説明可能なシステムは、遅れと効率の低下に苦しむ調査ジャーナリズムから妥当性の正当性を生じる。
近年の研究では、正当化は群衆の知恵に表される多数意見に等しいと仮定されている。
しかし、一般に意見には、群衆の知恵が無検閲であるため、不正確な情報や偏見のある情報が含まれている。
本稿では,多様で混み合った,あるいは競合する物語の海から偽ニュースを検出するために,新しい防衛ベースの説明可能な偽ニュース検出フレームワークを提案する。
具体的には,まず,集団の知恵を2つの競合相手に分割し,それぞれに有能な証拠を検出するエビデンス抽出モジュールを提案する。
証拠から簡潔な洞察を得るため、我々は大きな言語モデルを用いて2つの可能な妥当性の理由を推測して正当化を生成するプロンプトベースのモジュールを設計する。
最後に,これらの正当性のうちの防御をモデル化し,正当性を決定するためのディフェンスベース推論モジュールを提案する。
2つの実世界のベンチマークで行った大規模な実験により、提案手法は偽ニュースの検出において最先端のベースラインよりも優れ、高品質な正当性を提供することが示された。
関連論文リスト
- Fake News Detection and Manipulation Reasoning via Large Vision-Language Models [38.457805116130004]
本稿では,Human-centric and Fact-related Fake News(HFFN)と呼ばれる偽ニュースの検出と操作の推論のためのベンチマークを紹介する。
このベンチマークでは、詳細なマニュアルアノテーションによって、人間の中心性と、高い事実的関連性を強調している。
M-DRUM(Multi-modal News Detection and Reasoning langUage Model)が提示される。
論文 参考訳(メタデータ) (2024-07-02T08:16:43Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - A Coarse-to-fine Cascaded Evidence-Distillation Neural Network for
Explainable Fake News Detection [15.517424861844317]
既存のフェイクニュース検出手法は、ニュースの一部を真または偽と分類し、説明を提供することを目的としており、優れたパフォーマンスを達成している。
あるニュースが事実確認され、あるいは公表されていない場合、関連する生のレポートは、通常、様々なメディアに散発的に配信される。
そこで本稿では, 偽ニュース検出のためのニューラルネットワークCofCED(Coarse-to-fine Cascaded Evidence-Distillation)を提案する。
論文 参考訳(メタデータ) (2022-09-29T09:05:47Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Mining Fine-grained Semantics via Graph Neural Networks for
Evidence-based Fake News Detection [20.282527436527765]
本稿では,グラフベースのsEmantic sTructureマイニングフレームワークを提案する。
我々は、クレームとエビデンスをグラフ構造化データとしてモデル化し、長距離セマンティック依存関係をキャプチャします。
文脈意味情報を得た後、グラフ構造学習を行うことにより、情報冗長性を低減する。
論文 参考訳(メタデータ) (2022-01-18T11:28:36Z) - Explainable Tsetlin Machine framework for fake news detection with
credibility score assessment [16.457778420360537]
本稿では,最近導入されたTsetlin Machine (TM) に基づく,新たな解釈可能な偽ニュース検出フレームワークを提案する。
我々は、TMの接続節を用いて、真偽のニューステキストの語彙的および意味的特性をキャプチャする。
評価のために、PolitiFactとGossipCopという2つの公開データセットで実験を行い、TMフレームワークが以前公開されたベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-05-19T13:18:02Z) - Hierarchical Multi-head Attentive Network for Evidence-aware Fake News
Detection [11.990139228037124]
本稿では,テキストクレームのファクトチェックのための階層型マルチヘッド注意ネットワークを提案する。
本モデルでは,単語レベルとエビデンスレベルの両方の説明を支援する多頭部単語レベルと多頭部文書レベルアテンションを併用する。
論文 参考訳(メタデータ) (2021-02-04T15:18:44Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。