論文の概要: Identification and explanation of disinformation in wiki data streams
- arxiv url: http://arxiv.org/abs/2503.05605v1
- Date: Mon, 03 Feb 2025 08:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 11:16:21.026063
- Title: Identification and explanation of disinformation in wiki data streams
- Title(参考訳): wikiデータストリームにおける偽情報の同定と説明
- Authors: Francisco de Arriba-Pérez, Silvia García-Méndez, Fátima Leal, Benedita Malheiro, Juan C Burguillo,
- Abstract要約: 本研究は,ウィキページ上のオンラインコンテンツの急速な成長に対処するため,自動データ品質検証分野への貢献を目的としている。
我々のスケーラブルなソリューションには、機能エンジニアリングによるストリームベースのデータ処理、特徴分析と選択、ストリームベースの分類、予測結果のリアルタイム説明が含まれる。
- 参考スコア(独自算出の注目度): 4.390029685572874
- License:
- Abstract: Social media platforms, increasingly used as news sources for varied data analytics, have transformed how information is generated and disseminated. However, the unverified nature of this content raises concerns about trustworthiness and accuracy, potentially negatively impacting readers' critical judgment due to disinformation. This work aims to contribute to the automatic data quality validation field, addressing the rapid growth of online content on wiki pages. Our scalable solution includes stream-based data processing with feature engineering, feature analysis and selection, stream-based classification, and real-time explanation of prediction outcomes. The explainability dashboard is designed for the general public, who may need more specialized knowledge to interpret the model's prediction. Experimental results on two datasets attain approximately 90 % values across all evaluation metrics, demonstrating robust and competitive performance compared to works in the literature. In summary, the system assists editors by reducing their effort and time in detecting disinformation.
- Abstract(参考訳): さまざまなデータ分析のニュースソースとしてますます使われるソーシャルメディアプラットフォームは、情報の生成と普及の仕方を変えてきた。
しかし、この内容の検証されていない性質は、信頼性と正確性への懸念を生じさせ、偽情報による読者の批判的判断に悪影響を及ぼす可能性がある。
本研究は,ウィキページ上のオンラインコンテンツの急速な成長に対処するため,自動データ品質検証分野への貢献を目的としている。
我々のスケーラブルなソリューションには、機能エンジニアリングによるストリームベースのデータ処理、特徴分析と選択、ストリームベースの分類、予測結果のリアルタイム説明が含まれる。
説明可能性ダッシュボードは一般向けに設計されており、モデルの予測を解釈するためには、より専門的な知識を必要とする可能性がある。
2つのデータセットの実験結果は、すべての評価指標で約90%の値を達成し、文献の成果と比較して、堅牢で競争的なパフォーマンスを実証した。
要約すると、このシステムは、偽情報を検出する際の労力と時間を削減し、編集者を支援する。
関連論文リスト
- Yesterday's News: Benchmarking Multi-Dimensional Out-of-Distribution Generalisation of Misinformation Detection Models [15.120606566150816]
Misinfo-Generalは、偽情報モデルのアウト・オブ・ディストリビューションの一般化を行う能力を評価するためのベンチマークデータセットである。
一般化時間,イベント,トピック,パブリッシャ,政治バイアス,誤情報型および設計評価手順の6つの軸を識別する。
論文 参考訳(メタデータ) (2024-10-12T09:46:36Z) - Exposing and Explaining Fake News On-the-Fly [4.278181795494584]
この研究は、偽ニュースをリアルタイムで認識するための説明可能なオンライン分類手法に寄与する。
提案手法は、教師なしおよび教師なしの機械学習アプローチとオンライン生成レキシカを組み合わせたものである。
提案手法の性能はTwitterの実際のデータセットで検証され,その結果は80%精度とマクロF測定値を得た。
論文 参考訳(メタデータ) (2024-05-03T14:49:04Z) - Capturing Pertinent Symbolic Features for Enhanced Content-Based
Misinformation Detection [0.0]
誤解を招く内容の検出は、言語的・ドメイン的多様性の極端さから、大きなハードルとなる。
本稿では,この現象を特徴付ける言語特性と,最も一般的な誤情報データセットの表現方法について分析する。
ニューラルネットワークモデルと組み合わせた関連する記号的知識の適切な利用は、誤解を招くコンテンツを検出するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-01-29T16:42:34Z) - Collect, Measure, Repeat: Reliability Factors for Responsible AI Data
Collection [8.12993269922936]
AIのデータ収集は責任ある方法で行うべきだと我々は主張する。
本稿では,データ収集をメトリクスの集合でガイドするResponsible AI(RAI)手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T18:01:27Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Interpretable Fake News Detection with Topic and Deep Variational Models [2.15242029196761]
我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2022-09-04T05:31:00Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。