論文の概要: Computational Fact-Checking of Online Discourse: Scoring scientific accuracy in climate change related news articles
- arxiv url: http://arxiv.org/abs/2505.07409v1
- Date: Mon, 12 May 2025 10:03:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.34276
- Title: Computational Fact-Checking of Online Discourse: Scoring scientific accuracy in climate change related news articles
- Title(参考訳): オンライン談話の計算的Fact-Checking:気候変動関連ニュース記事における科学的精度の検証
- Authors: Tim Wittenborg, Constantin Sebastian Tremel, Markus Stocker, Sören Auer,
- Abstract要約: 本研究は,オンラインメディアの科学的精度の定量化を目的とする。
未知の正確性のメディアをセマンティフィケーションすることで、それらのステートメントを等しく処理された信頼できるソースと比較することができる。
- 参考スコア(独自算出の注目度): 0.14999444543328289
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Democratic societies need reliable information. Misinformation in popular media such as news articles or videos threatens to impair civic discourse. Citizens are, unfortunately, not equipped to verify this content flood consumed daily at increasing rates. This work aims to semi-automatically quantify scientific accuracy of online media. By semantifying media of unknown veracity, their statements can be compared against equally processed trusted sources. We implemented a workflow using LLM-based statement extraction and knowledge graph analysis. Our neurosymbolic system was able to evidently streamline state-of-the-art veracity quantification. Evaluated via expert interviews and a user survey, the tool provides a beneficial veracity indication. This indicator, however, is unable to annotate public media at the required granularity and scale. Further work towards a FAIR (Findable, Accessible, Interoperable, Reusable) ground truth and complementary metrics are required to scientifically support civic discourse.
- Abstract(参考訳): 民主社会は信頼できる情報を必要としている。
ニュース記事やビデオなどの人気メディアの誤報は、市民の会話を損なう恐れがある。
残念なことに、市民は、このコンテンツの洪水が増加率で毎日消費されていることを確認できない。
本研究の目的は,オンラインメディアの科学的精度を半自動で定量化することである。
未知の正確性のメディアをセマンティフィケーションすることで、それらのステートメントを等しく処理された信頼できるソースと比較することができる。
LLMに基づく文抽出と知識グラフ解析を用いたワークフローを実装した。
我々のニューロシンボリックシステムは明らかに最先端の精度定量化を効率化することができた。
専門家のインタビューやユーザ調査を通じて評価すると、このツールは有益な妥当性を示す。
しかし、この指標は、必要な粒度と規模で公開メディアに注釈を付けることはできない。
FAIR(Findable, Accessible, Interoperable, Reusable)の基礎的真理と相補的なメトリクスへのさらなる取り組みは、市民の言論を科学的に支援するために必要である。
関連論文リスト
- Mapping the Media Landscape: Predicting Factual Reporting and Political Bias Through Web Interactions [0.7249731529275342]
本稿では,最近発表されたニュースメディアの信頼性評価手法の拡張を提案する。
大規模ニュースメディアハイパーリンクグラフ上での4つの強化学習戦略の分類性能を評価する。
本実験は,2つの難解なバイアス記述子,事実報告と政治的偏見を対象とし,情報源メディアレベルでの大幅な性能向上を示した。
論文 参考訳(メタデータ) (2024-10-23T08:18:26Z) - Correcting misinformation on social media with a large language model [14.69780455372507]
現実世界の誤報は、しばしばマルチモーダルであり、因果関係を混同するような様々な戦術で誤解を招くことがある。
このような誤報は、特にソーシャルメディアにおいて、ひどく過小評価され、対処が困難であり、様々な社会的ドメインに害を与えている。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
論文 参考訳(メタデータ) (2024-03-17T10:59:09Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。