論文の概要: Integrating Pattern- and Fact-based Fake News Detection via Model
Preference Learning
- arxiv url: http://arxiv.org/abs/2109.11333v1
- Date: Thu, 23 Sep 2021 12:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 18:49:38.524732
- Title: Integrating Pattern- and Fact-based Fake News Detection via Model
Preference Learning
- Title(参考訳): モデル選好学習によるパターンと事実に基づく偽ニュース検出の統合
- Authors: Qiang Sheng, Xueyao Zhang, Juan Cao, Lei Zhong
- Abstract要約: パターンベースモデルとファクトベースモデルを一つのフレームワークに統合する問題について検討する。
提案するPreference-aware Fake News Detection Framework (Pref-FEND) は,共同検出のためのパターンモデルとファクトベースモデルの各好みを学習する。
- 参考スコア(独自算出の注目度): 6.92027612631023
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: To defend against fake news, researchers have developed various methods based
on texts. These methods can be grouped as 1) pattern-based methods, which focus
on shared patterns among fake news posts rather than the claim itself; and 2)
fact-based methods, which retrieve from external sources to verify the claim's
veracity without considering patterns. The two groups of methods, which have
different preferences of textual clues, actually play complementary roles in
detecting fake news. However, few works consider their integration. In this
paper, we study the problem of integrating pattern- and fact-based models into
one framework via modeling their preference differences, i.e., making the
pattern- and fact-based models focus on respective preferred parts in a post
and mitigate interference from non-preferred parts as possible. To this end, we
build a Preference-aware Fake News Detection Framework (Pref-FEND), which
learns the respective preferences of pattern- and fact-based models for joint
detection. We first design a heterogeneous dynamic graph convolutional network
to generate the respective preference maps, and then use these maps to guide
the joint learning of pattern- and fact-based models for final prediction.
Experiments on two real-world datasets show that Pref-FEND effectively captures
model preferences and improves the performance of models based on patterns,
facts, or both.
- Abstract(参考訳): 偽ニュースを防御するために、研究者はテキストに基づいた様々な方法を開発した。
これらの方法はグループ化できる
1) クレーム自体よりも偽ニュース投稿間の共有パターンに着目したパターンベース手法
2) パターンを考慮せずに,外部から情報を取得し,クレームの妥当性を確認するファクトベース手法。
テキストの手がかりの好みが異なる2つの方法群は、偽ニュースの検出に相補的な役割を担っている。
しかし、それらの統合を考える作品はほとんどない。
本稿では,その嗜好の違いをモデル化することで,パターンと事実に基づくモデルを一つのフレームワークに統合する問題,すなわち,パターンと事実に基づくモデルをポストのそれぞれの好む部分に集中させ,予測されない部分からの干渉を可能な限り緩和する問題について検討する。
この目的のために,パターンと事実に基づく協調検出モデルのそれぞれの選好を学習する選好認識型フェイクニュース検出フレームワーク(pref-fend)を構築した。
まず、各好みマップを生成するために不均一な動的グラフ畳み込みネットワークを設計し、次にこれらのマップを使用してパターンモデルと事実モデルの共同学習を最終予測に導く。
実世界の2つのデータセットの実験によると、Pref-FENDはモデルの好みを効果的に捉え、パターンや事実、あるいはその両方に基づいてモデルのパフォーマンスを改善する。
関連論文リスト
- Human-Object Interaction Detection Collaborated with Large Relation-driven Diffusion Models [65.82564074712836]
テキストと画像の拡散モデルに光を流す新しいHOI検出器であるDIFfusionHOIを紹介する。
まず、埋め込み空間における人間と物体の関係パターンの表現をインバージョンベースで学習する戦略を考案する。
これらの学習された関係埋め込みはテキストのプロンプトとして機能し、スタイア拡散モデルが特定の相互作用を記述する画像を生成する。
論文 参考訳(メタデータ) (2024-10-26T12:00:33Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Artificial Interrogation for Attributing Language Models [0.0]
この課題は、人気言語モデルの12のオープンソースベースバージョンと、テキスト生成のための12の微調整言語モデルを提供する。
コンテストの目標は、どのモデルがどのベースモデルに由来するかを特定することである。
両集合のモデルから生成された応答の類似性を測定するために4つの異なるアプローチを採用した。
論文 参考訳(メタデータ) (2022-11-20T05:46:29Z) - Distributional Depth-Based Estimation of Object Articulation Models [21.046351215949525]
本研究では,奥行き画像から直接,調音モデルパラメータの分布を効率よく学習する手法を提案する。
私たちのコアコントリビューションには、剛体変換に対する分布の新しい表現が含まれています。
本稿では,カテゴリに依存しない調音モデル推定を行う新しい深層学習手法DUST-netを提案する。
論文 参考訳(メタデータ) (2021-08-12T17:44:51Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。