論文の概要: Exploiting User Comments for Early Detection of Fake News Prior to Users' Commenting
- arxiv url: http://arxiv.org/abs/2310.10429v2
- Date: Tue, 12 Nov 2024 16:39:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:19:11.627819
- Title: Exploiting User Comments for Early Detection of Fake News Prior to Users' Commenting
- Title(参考訳): ユーザのコメントより前のフェイクニュースの早期検出のためのユーザコメントの公開
- Authors: Qiong Nan, Qiang Sheng, Juan Cao, Yongchun Zhu, Danding Wang, Guang Yang, Jintao Li,
- Abstract要約: コメント対応教師モデルからコンテンツのみの学生モデルに有用な知識を伝達し、学生モデルで新たなニュースを検出する。
実験の結果、CAS-FENDの学生モデルはコンテンツのみの手法やコメントのみの手法よりも優れており、1/4のコメントを入力として認識している。
- 参考スコア(独自算出の注目度): 24.412251853076754
- License:
- Abstract: Both accuracy and timeliness are key factors in detecting fake news on social media. However, most existing methods encounter an accuracy-timeliness dilemma: Content-only methods guarantee timeliness but perform moderately because of limited available information, while social con-text-based ones generally perform better but inevitably lead to latency because of social context accumulation needs. To break such a dilemma, a feasible but not well-studied solution is to leverage social contexts (e.g., comments) from historical news for training a detection model and apply it to newly emerging news without social contexts. This requires the model to (1) sufficiently learn helpful knowledge from social contexts, and (2) be well compatible with situations that social contexts are available or not. To achieve this goal, we propose to absorb and parameterize useful knowledge from comments in historical news and then inject it into a content-only detection model. Specifically, we design the Comments ASsisted FakE News Detection method (CAS-FEND), which transfers useful knowledge from a comment-aware teacher model to a content-only student model and detects newly emerging news with the student model. Experiments show that the CAS-FEND student model outperforms all content-only methods and even comment-aware ones with 1/4 comments as inputs, demonstrating its superiority for early detection.
- Abstract(参考訳): 正確さとタイムラインの両方が、ソーシャルメディア上で偽ニュースを検出する重要な要素である。
コンテンツのみの手法は、タイムラインを保証するが、利用可能な情報が限られているため、適度に実行する。
このようなジレンマを打破するには、社会的文脈(例えば、コメント)を過去のニュースから活用し、検出モデルを訓練し、社会的文脈なしで新しく生まれたニュースに適用する、という実現不可能な解決策がある。
このモデルでは,(1)社会的文脈から十分な知識を習得すること,(2)社会的文脈が利用できるか否かの状況と十分に相容れないこと,などが求められている。
この目的を達成するために,歴史的ニュースのコメントから有用な知識を吸収・パラメータ化し,コンテンツのみの検出モデルに注入することを提案する。
具体的には、コメント認識型教師モデルからコンテンツのみの学生モデルに有用な知識を伝達し、学生モデルで新たなニュースを検出する、コメント支援FakEニュース検出手法(CAS-FEND)を設計する。
実験の結果、CAS-FENDの学生モデルはコンテンツのみの手法やコメントのみの手法よりも優れており、1/4のコメントを入力として認識している。
関連論文リスト
- Revisiting Fake News Detection: Towards Temporality-aware Evaluation by Leveraging Engagement Earliness [22.349521957987672]
ソーシャルグラフに基づく偽ニュース検出は、社会的文脈を利用して偽情報を含むニュース記事を特定することを目的としている。
我々は、現実のシナリオを模倣するより現実的な評価スキームを定式化する。
従来の手法の識別能力は,この新しい設定下で急激に低下することを示す。
論文 参考訳(メタデータ) (2024-11-19T05:08:00Z) - Ethio-Fake: Cutting-Edge Approaches to Combat Fake News in Under-Resourced Languages Using Explainable AI [44.21078435758592]
誤報はコンテンツの作成や拡散が容易なため、急速に広まることがある。
従来のフェイクニュース検出のアプローチは、コンテンツベースの機能にのみ依存することが多い。
本稿では,ソーシャルコンテキストに基づく機能とニュースコンテンツ機能を統合した包括的アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:49:35Z) - A Semi-supervised Fake News Detection using Sentiment Encoding and LSTM with Self-Attention [0.0]
本研究では,感情分析を最先端の事前学習モデルによって獲得する半教師付き自己学習手法を提案する。
学習モデルは半教師付き方式で訓練され、LSTMに自己注意層を組み込む。
我々は,2万件のニュースコンテンツをデータセットにベンチマークし,そのフィードバックとともに,フェイクニュース検出における競合手法と比較して精度,リコール,測定性能が向上したことを示す。
論文 参考訳(メタデータ) (2024-07-27T20:00:10Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - SRLF: A Stance-aware Reinforcement Learning Framework for Content-based
Rumor Detection on Social Media [15.985224010346593]
初期のコンテンツベースの方法は、噂の検出のためにテキストとユーザープロファイルから手がかりを見つけることに集中した。
近年の研究では、ユーザのコメントとニュースコンテンツを組み合わせて、真実と偽の噂の違いを捉えている。
本稿では,モデルトレーニングと噂検出のための高品質なラベル付き姿勢データを選択するための,SRLF(Stance-Aware Reinforcement Learning Framework)を提案する。
論文 参考訳(メタデータ) (2021-05-10T03:58:34Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。