論文の概要: Improving Generalization for Multimodal Fake News Detection
- arxiv url: http://arxiv.org/abs/2305.18599v1
- Date: Mon, 29 May 2023 20:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 19:27:58.936941
- Title: Improving Generalization for Multimodal Fake News Detection
- Title(参考訳): マルチモーダルフェイクニュース検出のための一般化の改善
- Authors: Sahar Tahmasebi, Sherzod Hakimov, Ralph Ewerth, Eric M\"uller-Budack
- Abstract要約: 最先端のアプローチは通常、小さなサイズのデータセットや特定のトピックの限定セットでトレーニングされる。
本稿では,マルチモーダルフェイクニュース検出のために,最先端のマルチモーダルトランスを採用した3つのモデルを提案する。
- 参考スコア(独自算出の注目度): 8.595270610973586
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The increasing proliferation of misinformation and its alarming impact have
motivated both industry and academia to develop approaches for fake news
detection. However, state-of-the-art approaches are usually trained on datasets
of smaller size or with a limited set of specific topics. As a consequence,
these models lack generalization capabilities and are not applicable to
real-world data. In this paper, we propose three models that adopt and
fine-tune state-of-the-art multimodal transformers for multimodal fake news
detection. We conduct an in-depth analysis by manipulating the input data aimed
to explore models performance in realistic use cases on social media. Our study
across multiple models demonstrates that these systems suffer significant
performance drops against manipulated data. To reduce the bias and improve
model generalization, we suggest training data augmentation to conduct more
meaningful experiments for fake news detection on social media. The proposed
data augmentation techniques enable models to generalize better and yield
improved state-of-the-art results.
- Abstract(参考訳): 誤情報の増加とその脅威的影響は、業界と学界の両方に偽ニュース検出のアプローチを開発する動機を与えている。
しかしながら、最先端のアプローチは通常、小さなサイズのデータセットや特定のトピックの限られたセットでトレーニングされる。
その結果、これらのモデルは一般化能力に欠け、現実世界のデータには適用できない。
本稿では,マルチモーダルフェイクニュース検出に最先端のマルチモーダルトランスを採用した3つのモデルを提案する。
ソーシャルメディア上の現実的なユースケースにおけるモデル性能の探索を目的とした入力データを操作し,詳細な分析を行う。
複数のモデルにまたがる研究は、これらのシステムが操作されたデータに対して著しい性能低下を被っていることを示している。
バイアスを低減し,モデル一般化を改善するために,ソーシャルメディア上で偽ニュース検出のためのより有意義な実験を行うためのトレーニングデータ拡張を提案する。
提案したデータ拡張技術により、モデルはより一般化され、最先端の結果が得られる。
関連論文リスト
- How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Interpretable Fake News Detection with Topic and Deep Variational Models [2.15242029196761]
我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2022-09-04T05:31:00Z) - Exploring Generalizability of Fine-Tuned Models for Fake News Detection [3.210653757360955]
新型コロナウイルスのパンデミックは、CDCとWHOによる「インフォデミック」という危険な誤報の劇的かつ同時的な増加を引き起こしている。
Covid-19インフォデミックに関連付けられた誤報は、コンセプトドリフトによる微調整モデルの性能低下につながる可能性がある。
本稿では,9つの偽ニュースデータセットに対して,事前学習および微調整を行った偽ニュース検知器の一般化可能性について検討する。
論文 参考訳(メタデータ) (2022-05-15T00:00:49Z) - Unified Fake News Detection using Transfer Learning of Bidirectional
Encoder Representation from Transformers model [0.0]
本稿では、公開データセットを組み合わせて、フェイクニュースサンプルを効果的に検出し、統一モデルの構築を試みる。
以前のモデルのほとんどは個別のデータセットで個別に設計され、検証された。
論文 参考訳(メタデータ) (2022-02-03T23:23:26Z) - Multimodal Emergent Fake News Detection via Meta Neural Process Networks [36.52739834391597]
本稿では,MetaFENDというフェイクニュース検出フレームワークを提案する。
具体的には、メタラーニングとニューラルプロセスの手法を統合したモデルを提案する。
TwitterとWeiboから収集したマルチメディアデータセットに対して、大規模な実験が行われた。
論文 参考訳(メタデータ) (2021-06-22T21:21:29Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。