論文の概要: News Source Credibility Assessment: A Reddit Case Study
- arxiv url: http://arxiv.org/abs/2402.10938v1
- Date: Wed, 7 Feb 2024 13:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 17:02:46.663760
- Title: News Source Credibility Assessment: A Reddit Case Study
- Title(参考訳): ニュースソースの信頼性評価:Redditのケーススタディ
- Authors: Arash Amini, Yigit Ege Bayiz, Ashwin Ram, Radu Marculescu and Ufuk
Topcu
- Abstract要約: Redditの投稿に対して微調整したソース信頼性評価モデルCREDiBERTを提案する。
CREDiBERTを用いてサブミッションコンテンツを符号化し,それをシームズニューラルネットワークに統合することにより,サブミッション信頼性のバイナリ分類を大幅に改善する。
また,Redditにポスト・ツー・ポストネットワークの新バージョンを導入し,ユーザインタラクションを効率的にエンコードし,バイナリ分類タスクを強化する。
- 参考スコア(独自算出の注目度): 37.20662812337114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of social media platforms, identifying the credibility of online
content is crucial to combat misinformation. We present the CREDiBERT
(CREDibility assessment using Bi-directional Encoder Representations from
Transformers), a source credibility assessment model fine-tuned for Reddit
submissions focusing on political discourse as the main contribution. We adopt
a semi-supervised training approach for CREDiBERT, leveraging Reddit's
community-based structure. By encoding submission content using CREDiBERT and
integrating it into a Siamese neural network, we significantly improve the
binary classification of submission credibility, achieving a 9% increase in F1
score compared to existing methods. Additionally, we introduce a new version of
the post-to-post network in Reddit that efficiently encodes user interactions
to enhance the binary classification task by nearly 8% in F1 score. Finally, we
employ CREDiBERT to evaluate the susceptibility of subreddits with respect to
different topics.
- Abstract(参考訳): ソーシャルメディアプラットフォームの時代には、オンラインコンテンツの信頼性の特定が誤った情報と戦う上で重要である。
本稿では,redditの投稿に対して政治的談話に焦点をあてた情報源信頼度評価モデルであるcredibert (credibility assessment using bi-directional encoder representations from transformers)を提案する。
我々は、Redditのコミュニティベース構造を活用した、CREDiBERTのための半教師付きトレーニングアプローチを採用した。
CREDiBERTを用いて提出内容を符号化し,それをシームズニューラルネットワークに統合することにより,既存手法と比較してF1スコアが9%向上した。
さらに,Redditにおけるポスト・ツー・ポストネットワークの新バージョンを導入し,ユーザインタラクションを効率的にエンコードし,F1スコアの約8%のバイナリ分類タスクを強化する。
最後に, CREDiBERTを用いて, 異なるトピックに対するサブレディットの感受性を評価する。
関連論文リスト
- CrediRAG: Network-Augmented Credibility-Based Retrieval for Misinformation Detection in Reddit [18.974778179375463]
本稿では、言語モデルとリッチな外部政治知識ベースへのアクセスを組み合わせた最初の偽ニュース検出モデルであるCrediRAGを紹介する。
CrediRAGはニュースレトリバーを使用して、類似のニュース記事のソース信頼性に基づいて、当初各投稿に誤報スコアを割り当てる。
その結果,F1スコアが11%増加し,最先端手法による誤字検出が可能となった。
論文 参考訳(メタデータ) (2024-10-15T20:58:42Z) - Crowd Intelligence for Early Misinformation Prediction on Social Media [29.494819549803772]
本稿では,クラウドインテリジェンスに基づく早期誤報予測手法であるCROWDSHIELDを紹介する。
私たちは2つの次元(スタンスとクレーム)を捉えるためにQラーニングを採用しています。
我々は手動で誤情報検出を行うTwitterコーパスであるMISTを提案する。
論文 参考訳(メタデータ) (2024-08-08T13:45:23Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - FineFake: A Knowledge-Enriched Dataset for Fine-Grained Multi-Domain Fake News Detection [54.37159298632628]
FineFakeは、フェイクニュース検出のためのマルチドメイン知識強化ベンチマークである。
FineFakeは6つのセマンティックトピックと8つのプラットフォームにまたがる16,909のデータサンプルを含んでいる。
FineFakeプロジェクト全体がオープンソースリポジトリとして公開されている。
論文 参考訳(メタデータ) (2024-03-30T14:39:09Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - FR-Detect: A Multi-Modal Framework for Early Fake News Detection on
Social Media Using Publishers Features [0.0]
ニュース分野におけるこれらのメディアの優位性にもかかわらず、制御と検証機構の欠如がフェイクニュースの普及につながっている。
早期検出機能を備えたユーザ関連・コンテンツ関連機能を用いた高精度なマルチモーダルフレームワークFR-Detectを提案する。
実験によると、パブリッシャーの機能はコンテンツベースのモデルの性能を最大13%改善し、精度とF1スコアを29%向上させることができる。
論文 参考訳(メタデータ) (2021-09-10T12:39:00Z) - Stay on Topic, Please: Aligning User Comments to the Content of a News
Article [7.3203631241415055]
新たな記事ベースに投稿されたユーザコメントとその内容との整合性を分類する分類アルゴリズムを提案する。
このアライメントは、コンテンツ、議論のエンティティ、トピック間の類似性に基づいて、ユーザーコメントと記事とを一致させようとする。
分類作業の難易度を理解するために,人間のラベル付け性能を評価するためのユーザ調査を行う。
論文 参考訳(メタデータ) (2021-03-03T18:29:00Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - BAKSA at SemEval-2020 Task 9: Bolstering CNN with Self-Attention for
Sentiment Analysis of Code Mixed Text [4.456122555367167]
本稿では,畳み込みニューラルネット(CNN)と自己注意に基づくLSTMのアンサンブルアーキテクチャを提案する。
我々はヒンディー語(ヒングリッシュ)とスペイン語(スパングリッシュ)のデータセットでそれぞれ0.707と0.725のスコアを得た。
論文 参考訳(メタデータ) (2020-07-21T14:05:51Z) - Political audience diversity and news reliability in algorithmic ranking [54.23273310155137]
本稿では,ウェブサイトのオーディエンスの政治的多様性を質の指標として活用することを提案する。
ドメインの専門家によるニュースソースの信頼性評価と6,890人の米国市民の多様なサンプルによるWebブラウジングデータを用いて、より極端な、政治的に多様性の低いWebサイトが、ジャーナリストの基準を低くしていることを示す。
論文 参考訳(メタデータ) (2020-07-16T02:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。