論文の概要: ExFake: Towards an Explainable Fake News Detection Based on Content and
Social Context Information
- arxiv url: http://arxiv.org/abs/2311.10784v1
- Date: Thu, 16 Nov 2023 15:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 14:38:51.348811
- Title: ExFake: Towards an Explainable Fake News Detection Based on Content and
Social Context Information
- Title(参考訳): ExFake:コンテンツとソーシャルコンテキスト情報に基づく説明可能なフェイクニュース検出を目指して
- Authors: Sabrine Amri, Henri-Cedric Mputu Boleilanga, Esma A\"imeur
- Abstract要約: ExFakeは、コンテンツとコンテキストレベルの情報に基づく、説明可能なフェイクニュース検知システムである。
説明可能なAI(XAI)アシスタントも採用され、疑わしい情報に直面したオンラインソーシャルネットワーク(OSN)ユーザーが良好な反射を発達するのに役立つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ExFake is an explainable fake news detection system based on content and
context-level information. It is concerned with the veracity analysis of online
posts based on their content, social context (i.e., online users' credibility
and historical behaviour), and data coming from trusted entities such as
fact-checking websites and named entities. Unlike state-of-the-art systems, an
Explainable AI (XAI) assistant is also adopted to help online social networks
(OSN) users develop good reflexes when faced with any doubted information that
spreads on social networks. The trustworthiness of OSN users is also addressed
by assigning a credibility score to OSN users, as OSN users are one of the main
culprits for spreading fake news. Experimental analysis on a real-world dataset
demonstrates that ExFake significantly outperforms other baseline methods for
fake news detection.
- Abstract(参考訳): ExFakeは、コンテンツとコンテキストレベルの情報に基づく説明可能な偽ニュース検知システムである。
オンライン投稿の内容、社会的文脈(オンラインユーザの信頼性と過去の行動)、および事実確認ウェブサイトや名前付きエンティティなどの信頼できるエンティティから来るデータに基づいて、オンライン投稿の正確性を分析する。
最先端のシステムとは異なり、説明可能なAI(XAI)アシスタントも採用され、オンラインソーシャルネットワーク(OSN)ユーザーがソーシャルネットワークに広まる疑わしい情報に直面した場合に、良好な反射を発達させるのに役立つ。
OSNユーザーの信頼性はまた、偽ニュースを広める主要な原因の1つとして、OSNユーザーに信頼性スコアを割り当てることによって解決される。
実世界のデータセットの実験的分析は、exfakeがフェイクニュース検出の他のベースラインメソッドを大きく上回っていることを示している。
関連論文リスト
- Graph Global Attention Network with Memory for Fake News Detection [0.0]
偽情報の拡散は、社会的損害をもたらし、情報の信頼性を損なう可能性がある。
ディープラーニングは、偽ニュースを検出するための有望なアプローチとして登場した。
本研究は,偽ニュース検出のための新しいアプローチであるGANMを提案する。
論文 参考訳(メタデータ) (2023-04-30T11:42:08Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - Mining User-aware Multi-Relations for Fake News Detection in Large Scale
Online Social Networks [25.369320307526362]
信頼できるユーザーは信頼できるニュースを共有する傾向があり、信頼できないユーザーは信頼できないニュースを広める確率が高い。
本研究では,ソーシャル・ネットワークにおけるニュースとユーザの複数の関係を抽出し,偽ニュースを検出するためのリッチな情報を得るための2層グラフを構築した。
本稿では,ニュース層におけるニュースの伝搬特徴とユーザ層におけるユーザのインタラクション特徴を学習する,Us-DeFakeという偽ニュース検出モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T05:30:35Z) - FNDaaS: Content-agnostic Detection of Fake News sites [3.936965297430477]
FNDは、コンテンツに依存しない最初のフェイクニュース検出手法である。
ニュースサイトごとのネットワークや構造的特徴など、新しい、未調査の機能について検討している。
過去のサイトでは最大0.967のAUCスコアを達成でき、新しくフラッグされたサイトでは最大77-92%の精度を達成できる。
論文 参考訳(メタデータ) (2022-12-13T11:17:32Z) - FacTeR-Check: Semi-automated fact-checking through Semantic Similarity
and Natural Language Inference [61.068947982746224]
FacTeR-Checkは、ファクトチェックされた情報の検索、未確認のクレームの検証、ソーシャルメディア上での危険な情報の追跡を可能にする。
このアーキテクチャは、NLI19-SPと呼ばれる新しいデータセットを使って検証されている。
この結果から,各ベンチマークにおける最先端性能と,61種類のホアックスの時間経過に伴う進化の有用な解析結果が得られた。
論文 参考訳(メタデータ) (2021-10-27T15:44:54Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。