論文の概要: Exploring Content and Social Connections of Fake News with Explainable Text and Graph Learning
- arxiv url: http://arxiv.org/abs/2508.10040v3
- Date: Tue, 19 Aug 2025 10:32:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 13:30:22.872335
- Title: Exploring Content and Social Connections of Fake News with Explainable Text and Graph Learning
- Title(参考訳): 説明可能なテキストとグラフ学習によるフェイクニュースの内容と社会的つながりの探索
- Authors: Vítor N. Lourenço, Aline Paes, Tillman Weyde,
- Abstract要約: 偽情報は、しばしば「いいね!」やユーザーネットワークのようなソーシャルメディアのダイナミクスを利用して、そのリーチを増幅する。
本稿では、ファクトチェックを強化するために、コンテンツ、ソーシャルメディア、グラフベースの機能を組み合わせた説明可能なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.3181276611945263
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The global spread of misinformation and concerns about content trustworthiness have driven the development of automated fact-checking systems. Since false information often exploits social media dynamics such as "likes" and user networks to amplify its reach, effective solutions must go beyond content analysis to incorporate these factors. Moreover, simply labelling content as false can be ineffective or even reinforce biases such as automation and confirmation bias. This paper proposes an explainable framework that combines content, social media, and graph-based features to enhance fact-checking. It integrates a misinformation classifier with explainability techniques to deliver complete and interpretable insights supporting classification decisions. Experiments demonstrate that multimodal information improves performance over single modalities, with evaluations conducted on datasets in English, Spanish, and Portuguese. Additionally, the framework's explanations were assessed for interpretability, trustworthiness, and robustness with a novel protocol, showing that it effectively generates human-understandable justifications for its predictions.
- Abstract(参考訳): 誤情報やコンテンツ信頼性に関する懸念が世界中に広まり、自動化されたファクトチェックシステムの開発が進められた。
偽情報はしばしば「いいね」やユーザーネットワークのようなソーシャルメディアのダイナミックスを利用してそのリーチを増幅するため、効果的な解決策はこれらの要素を組み込むためにコンテンツ分析を超えていなければならない。
さらに、コンテンツを偽としてラベル付けするだけでは、自動化や確認バイアスといったバイアスを非効率または強化することができる。
本稿では、ファクトチェックを強化するために、コンテンツ、ソーシャルメディア、グラフベースの機能を組み合わせた説明可能なフレームワークを提案する。
誤情報分類器と説明可能性技術を統合して、分類決定を支援する完全かつ解釈可能な洞察を提供する。
実験により、マルチモーダル情報は、英語、スペイン語、ポルトガル語のデータセットで評価することにより、単一のモダリティよりもパフォーマンスが向上することが示された。
さらに、このフレームワークの説明は、新しいプロトコルによる解釈可能性、信頼性、堅牢性について評価され、その予測に対する人間の理解可能な正当化を効果的に生成することを示した。
関連論文リスト
- Identification and explanation of disinformation in wiki data streams [4.390029685572874]
本研究は,ウィキページ上のオンラインコンテンツの急速な成長に対処するため,自動データ品質検証分野への貢献を目的としている。
我々のスケーラブルなソリューションには、機能エンジニアリングによるストリームベースのデータ処理、特徴分析と選択、ストリームベースの分類、予測結果のリアルタイム説明が含まれる。
論文 参考訳(メタデータ) (2025-02-03T08:34:39Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - ClaimVer: Explainable Claim-Level Verification and Evidence Attribution of Text Through Knowledge Graphs [13.608282497568108]
ClaimVerは、ユーザの情報と検証のニーズを満たすように設計された、人間中心のフレームワークである。
各クレームをハイライトし、信頼された知識グラフに対して検証し、クレームの予測に対して簡潔で明確な説明を提供する。
論文 参考訳(メタデータ) (2024-03-12T17:07:53Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - A Modality-level Explainable Framework for Misinformation Checking in
Social Networks [2.4028383570062606]
本稿では,マルチモーダルの観点から,ソーシャルネットワークにおける誤情報の自動チェックについて述べる。
我々のフレームワークは、モダリティ指向の説明可能な推論を生成するための説明可能な方法によって補助される誤情報分類器で構成されている。
論文 参考訳(メタデータ) (2022-12-08T13:57:06Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。