論文の概要: Exploiting User Comments for Early Detection of Fake News Prior to
Users' Commenting
- arxiv url: http://arxiv.org/abs/2310.10429v1
- Date: Mon, 16 Oct 2023 14:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 13:56:11.899962
- Title: Exploiting User Comments for Early Detection of Fake News Prior to
Users' Commenting
- Title(参考訳): ユーザのコメントに先立って偽ニュースの早期検出にユーザコメントを利用する
- Authors: Qiong Nan, Qiang Sheng, Juan Cao, Yongchun Zhu, Danding Wang, Guang
Yang, Jintao Li, Kai Shu
- Abstract要約: コメント支援型フェイクニュース検出法(CAS-FEND)は,コメント認識型教師モデルからコンテンツのみの学生モデルに有用な知識を伝達する。
実験により、CAS-FENDの学生モデルは、コンテンツのみの手法や、1/4のコメントを入力として持つものよりも優れており、早期発見の優位性を示している。
- 参考スコア(独自算出の注目度): 35.78094704218484
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Both accuracy and timeliness are key factors in detecting fake news on social
media. However, most existing methods encounter an accuracy-timeliness dilemma:
Content-only methods guarantee timeliness but perform moderately because of
limited available information, while social context-based ones generally
perform better but inevitably lead to latency because of social context
accumulation needs. To break such a dilemma, a feasible but not well-studied
solution is to leverage social contexts (e.g., comments) from historical news
for training a detection model and apply it to newly emerging news without
social contexts. This requires the model to (1) sufficiently learn helpful
knowledge from social contexts, and (2) be well compatible with situations that
social contexts are available or not. To achieve this goal, we propose to
absorb and parameterize useful knowledge from comments in historical news and
then inject it into a content-only detection model. Specifically, we design the
Comments Assisted Fake News Detection method (CAS-FEND), which transfers useful
knowledge from a comments-aware teacher model to a content-only student model
during training. The student model is further used to detect newly emerging
fake news. Experiments show that the CAS-FEND student model outperforms all
content-only methods and even those with 1/4 comments as inputs, demonstrating
its superiority for early detection.
- Abstract(参考訳): 精度とタイムラインは、ソーシャルメディア上で偽ニュースを検出する上で重要な要素である。
コンテンツのみのメソッドはタイムラインを保証するが、利用可能な情報が少ないため適度に実行する。一方、ソーシャルコンテキストベースのメソッドは一般的にパフォーマンスが良いが、必然的に社会的コンテキストの蓄積が必要なためレイテンシにつながる。
このようなジレンマを破るためには、歴史的ニュースからの社会的文脈(例えばコメント)を利用して検出モデルを訓練し、社会的文脈を伴わずに新しく出現したニュースに適用する、という方法が考えられる。
このモデルでは,(1)社会的文脈から十分な知識を習得し,(2)社会的文脈が利用できるか否かの状況と整合性を持たなければならない。
この目的を達成するために,歴史ニュースのコメントから有用な知識を吸収・パラメータ化し,コンテンツのみの検出モデルに注入する。
具体的には,コメント認識型教師モデルから学習中のコンテンツのみの学生モデルに有用な知識を伝達する,偽ニュース検出法(cas-fend)をデザインする。
学生モデルは新たなフェイクニュースを検出するためにさらに使用される。
実験により、CAS-FENDの学生モデルは、コンテンツのみの手法や、1/4のコメントを入力として持つものよりも優れており、早期発見の優位性を示している。
関連論文リスト
- Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Leveraging Social Interactions to Detect Misinformation on Social Media [25.017602051478768]
新型コロナウイルスのパンデミックで生成されたデータセットを使って、この問題に対処する。
情報ソースの以前の評価に基づいて、信頼性または信頼性が低いとラベル付けされた情報を議論するツイートのカスケードを含む。
我々は、ネットワーク情報にも活用する。ホモフィリ原理に従えば、対話するユーザは、一般的に同様の話題に興味を持ち、同様の種類のニュースを拡散する、という仮説を立てる。
論文 参考訳(メタデータ) (2023-04-06T10:30:04Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Modelling Social Context for Fake News Detection: A Graph Neural Network
Based Approach [0.39146761527401425]
フェイクニュースの検出は、情報の信頼性を確保し、ニュースエコシステムの信頼性を維持するために不可欠である。
本稿では,ハイブリッドグラフニューラルネットワークによる偽ニュース検出の社会的文脈を解析した。
論文 参考訳(メタデータ) (2022-07-27T12:58:33Z) - SRLF: A Stance-aware Reinforcement Learning Framework for Content-based
Rumor Detection on Social Media [15.985224010346593]
初期のコンテンツベースの方法は、噂の検出のためにテキストとユーザープロファイルから手がかりを見つけることに集中した。
近年の研究では、ユーザのコメントとニュースコンテンツを組み合わせて、真実と偽の噂の違いを捉えている。
本稿では,モデルトレーニングと噂検出のための高品質なラベル付き姿勢データを選択するための,SRLF(Stance-Aware Reinforcement Learning Framework)を提案する。
論文 参考訳(メタデータ) (2021-05-10T03:58:34Z) - Supporting verification of news articles with automated search for
semantically similar articles [0.0]
偽ニュースを扱うための証拠検索手法を提案する。
学習課題は教師なし機械学習問題として定式化される。
われわれのアプローチは、コンセプトドリフトとは無関係である。
機械学習タスクはテキスト内の仮説とは独立している。
論文 参考訳(メタデータ) (2021-03-29T12:56:59Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。