論文の概要: Interpretable Fake News Detection with Topic and Deep Variational Models
- arxiv url: http://arxiv.org/abs/2209.01536v1
- Date: Sun, 4 Sep 2022 05:31:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:32:52.080681
- Title: Interpretable Fake News Detection with Topic and Deep Variational Models
- Title(参考訳): トピックと深部変動モデルを用いた解釈可能なフェイクニュース検出
- Authors: Marjan Hosseini, Alireza Javadian Sabet, Suining He, and Derek Aguiar
- Abstract要約: 我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
- 参考スコア(独自算出の注目度): 2.15242029196761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing societal dependence on social media and user generated content
for news and information has increased the influence of unreliable sources and
fake content, which muddles public discourse and lessens trust in the media.
Validating the credibility of such information is a difficult task that is
susceptible to confirmation bias, leading to the development of algorithmic
techniques to distinguish between fake and real news. However, most existing
methods are challenging to interpret, making it difficult to establish trust in
predictions, and make assumptions that are unrealistic in many real-world
scenarios, e.g., the availability of audiovisual features or provenance. In
this work, we focus on fake news detection of textual content using
interpretable features and methods. In particular, we have developed a deep
probabilistic model that integrates a dense representation of textual news
using a variational autoencoder and bi-directional Long Short-Term Memory
(LSTM) networks with semantic topic-related features inferred from a Bayesian
admixture model. Extensive experimental studies with 3 real-world datasets
demonstrate that our model achieves comparable performance to state-of-the-art
competing models while facilitating model interpretability from the learned
topics. Finally, we have conducted model ablation studies to justify the
effectiveness and accuracy of integrating neural embeddings and topic features
both quantitatively by evaluating performance and qualitatively through
separability in lower dimensional embeddings.
- Abstract(参考訳): ソーシャルメディアへの社会的依存が高まり、ニュースや情報に対するユーザー生成コンテンツへの依存が高まり、信頼できない情報源や偽コンテンツの影響が増大し、メディアへの信頼が低下する。
このような情報の信頼性を検証することは、確認バイアスの影響を受けやすい作業であり、偽ニュースと実ニュースを区別するアルゴリズム技術の開発につながる。
しかし、既存の手法の多くは解釈が難しく、予測への信頼を確立するのが難しく、実世界のシナリオの多くで非現実的な仮定をするのも困難である。
本研究では,解釈可能な特徴と手法を用いたテキストコンテンツの偽ニュース検出に焦点を当てた。
特に,変分オートエンコーダと双方向長短期記憶(LSTM)ネットワークを用いて,ベイジアンアドミキチャーモデルから推定されるセマンティックトピック関連特徴を持つテキストニュースの高密度表現を統合した深層確率モデルを開発した。
3つの実世界のデータセットによる大規模な実験により、我々のモデルは最先端の競合モデルに匹敵する性能を達成し、学習したトピックからモデルの解釈可能性を促進することを示した。
最後に,低次元埋め込みにおける分離性による性能評価と質的評価により,ニューラル埋め込みとトピック特徴の統合の有効性と精度を定量的に評価するモデルアブレーション研究を行った。
関連論文リスト
- MSynFD: Multi-hop Syntax aware Fake News Detection [27.046529059563863]
ソーシャルメディアプラットフォームは、偽ニュースを急速に拡散させ、われわれの現実社会に脅威を与えている。
既存の方法は、フェイクニュースの検出を強化するために、マルチモーダルデータまたはコンテキスト情報を使用する。
本稿では,偽ニュースの微妙なひねりに対処するための補完構文情報を含む,新しいマルチホップ構文認識型偽ニュース検出手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T05:40:33Z) - Capturing Pertinent Symbolic Features for Enhanced Content-Based
Misinformation Detection [0.0]
誤解を招く内容の検出は、言語的・ドメイン的多様性の極端さから、大きなハードルとなる。
本稿では,この現象を特徴付ける言語特性と,最も一般的な誤情報データセットの表現方法について分析する。
ニューラルネットワークモデルと組み合わせた関連する記号的知識の適切な利用は、誤解を招くコンテンツを検出するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-01-29T16:42:34Z) - Multimodal Relation Extraction with Cross-Modal Retrieval and Synthesis [89.04041100520881]
本研究は,対象物,文,画像全体に基づいて,テキストおよび視覚的証拠を検索することを提案する。
我々は,オブジェクトレベル,画像レベル,文レベル情報を合成し,同一性と異なるモダリティ間の推論を改善する新しい手法を開発した。
論文 参考訳(メタデータ) (2023-05-25T15:26:13Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - No Place to Hide: Dual Deep Interaction Channel Network for Fake News
Detection based on Data Augmentation [16.40196904371682]
本稿では,意味,感情,データ強化の観点から,偽ニュース検出のための新しいフレームワークを提案する。
セマンティックと感情の2つのディープインタラクションチャネルネットワークは、より包括的できめ細かなニュース表現を得るために設計されている。
実験の結果,提案手法は最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-31T13:33:53Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。