論文の概要: Exploiting User Comments for Early Detection of Fake News Prior to
Users' Commenting
- arxiv url: http://arxiv.org/abs/2310.10429v1
- Date: Mon, 16 Oct 2023 14:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 13:56:11.899962
- Title: Exploiting User Comments for Early Detection of Fake News Prior to
Users' Commenting
- Title(参考訳): ユーザのコメントに先立って偽ニュースの早期検出にユーザコメントを利用する
- Authors: Qiong Nan, Qiang Sheng, Juan Cao, Yongchun Zhu, Danding Wang, Guang
Yang, Jintao Li, Kai Shu
- Abstract要約: コメント支援型フェイクニュース検出法(CAS-FEND)は,コメント認識型教師モデルからコンテンツのみの学生モデルに有用な知識を伝達する。
実験により、CAS-FENDの学生モデルは、コンテンツのみの手法や、1/4のコメントを入力として持つものよりも優れており、早期発見の優位性を示している。
- 参考スコア(独自算出の注目度): 35.78094704218484
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Both accuracy and timeliness are key factors in detecting fake news on social
media. However, most existing methods encounter an accuracy-timeliness dilemma:
Content-only methods guarantee timeliness but perform moderately because of
limited available information, while social context-based ones generally
perform better but inevitably lead to latency because of social context
accumulation needs. To break such a dilemma, a feasible but not well-studied
solution is to leverage social contexts (e.g., comments) from historical news
for training a detection model and apply it to newly emerging news without
social contexts. This requires the model to (1) sufficiently learn helpful
knowledge from social contexts, and (2) be well compatible with situations that
social contexts are available or not. To achieve this goal, we propose to
absorb and parameterize useful knowledge from comments in historical news and
then inject it into a content-only detection model. Specifically, we design the
Comments Assisted Fake News Detection method (CAS-FEND), which transfers useful
knowledge from a comments-aware teacher model to a content-only student model
during training. The student model is further used to detect newly emerging
fake news. Experiments show that the CAS-FEND student model outperforms all
content-only methods and even those with 1/4 comments as inputs, demonstrating
its superiority for early detection.
- Abstract(参考訳): 精度とタイムラインは、ソーシャルメディア上で偽ニュースを検出する上で重要な要素である。
コンテンツのみのメソッドはタイムラインを保証するが、利用可能な情報が少ないため適度に実行する。一方、ソーシャルコンテキストベースのメソッドは一般的にパフォーマンスが良いが、必然的に社会的コンテキストの蓄積が必要なためレイテンシにつながる。
このようなジレンマを破るためには、歴史的ニュースからの社会的文脈(例えばコメント)を利用して検出モデルを訓練し、社会的文脈を伴わずに新しく出現したニュースに適用する、という方法が考えられる。
このモデルでは,(1)社会的文脈から十分な知識を習得し,(2)社会的文脈が利用できるか否かの状況と整合性を持たなければならない。
この目的を達成するために,歴史ニュースのコメントから有用な知識を吸収・パラメータ化し,コンテンツのみの検出モデルに注入する。
具体的には,コメント認識型教師モデルから学習中のコンテンツのみの学生モデルに有用な知識を伝達する,偽ニュース検出法(cas-fend)をデザインする。
学生モデルは新たなフェイクニュースを検出するためにさらに使用される。
実験により、CAS-FENDの学生モデルは、コンテンツのみの手法や、1/4のコメントを入力として持つものよりも優れており、早期発見の優位性を示している。
関連論文リスト
- Revisiting Fake News Detection: Towards Temporality-aware Evaluation by Leveraging Engagement Earliness [22.349521957987672]
ソーシャルグラフに基づく偽ニュース検出は、社会的文脈を利用して偽情報を含むニュース記事を特定することを目的としている。
我々は、現実のシナリオを模倣するより現実的な評価スキームを定式化する。
従来の手法の識別能力は,この新しい設定下で急激に低下することを示す。
論文 参考訳(メタデータ) (2024-11-19T05:08:00Z) - Ethio-Fake: Cutting-Edge Approaches to Combat Fake News in Under-Resourced Languages Using Explainable AI [44.21078435758592]
誤報はコンテンツの作成や拡散が容易なため、急速に広まることがある。
従来のフェイクニュース検出のアプローチは、コンテンツベースの機能にのみ依存することが多い。
本稿では,ソーシャルコンテキストに基づく機能とニュースコンテンツ機能を統合した包括的アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:49:35Z) - A Semi-supervised Fake News Detection using Sentiment Encoding and LSTM with Self-Attention [0.0]
本研究では,感情分析を最先端の事前学習モデルによって獲得する半教師付き自己学習手法を提案する。
学習モデルは半教師付き方式で訓練され、LSTMに自己注意層を組み込む。
我々は,2万件のニュースコンテンツをデータセットにベンチマークし,そのフィードバックとともに,フェイクニュース検出における競合手法と比較して精度,リコール,測定性能が向上したことを示す。
論文 参考訳(メタデータ) (2024-07-27T20:00:10Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - SRLF: A Stance-aware Reinforcement Learning Framework for Content-based
Rumor Detection on Social Media [15.985224010346593]
初期のコンテンツベースの方法は、噂の検出のためにテキストとユーザープロファイルから手がかりを見つけることに集中した。
近年の研究では、ユーザのコメントとニュースコンテンツを組み合わせて、真実と偽の噂の違いを捉えている。
本稿では,モデルトレーニングと噂検出のための高品質なラベル付き姿勢データを選択するための,SRLF(Stance-Aware Reinforcement Learning Framework)を提案する。
論文 参考訳(メタデータ) (2021-05-10T03:58:34Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。