論文の概要: MALCOM: Generating Malicious Comments to Attack Neural Fake News
Detection Models
- arxiv url: http://arxiv.org/abs/2009.01048v2
- Date: Sun, 27 Sep 2020 10:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:26:14.559730
- Title: MALCOM: Generating Malicious Comments to Attack Neural Fake News
Detection Models
- Title(参考訳): MALCOM:悪意のあるコメントを生成してニューラルフェイクニュース検出モデルを攻撃する
- Authors: Thai Le, Suhang Wang, Dongwon Lee
- Abstract要約: MALCOMは、このような攻撃を行うためのエンドツーエンドのコメント生成フレームワークである。
我々は、平均的なMALCOMでの時間の約94%と93.5%が、最新のニューラル検出モデルの5つを誤解させることに成功したことを実証した。
また、我々の攻撃モデルと実際の2つのデータセットの4つのベースラインを比較します。
- 参考スコア(独自算出の注目度): 40.51057705796747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the proliferation of so-called "fake news" has caused much
disruptions in society and weakened the news ecosystem. Therefore, to mitigate
such problems, researchers have developed state-of-the-art models to
auto-detect fake news on social media using sophisticated data science and
machine learning techniques. In this work, then, we ask "what if adversaries
attempt to attack such detection models?" and investigate related issues by (i)
proposing a novel threat model against fake news detectors, in which
adversaries can post malicious comments toward news articles to mislead fake
news detectors, and (ii) developing MALCOM, an end-to-end adversarial comment
generation framework to achieve such an attack. Through a comprehensive
evaluation, we demonstrate that about 94% and 93.5% of the time on average
MALCOM can successfully mislead five of the latest neural detection models to
always output targeted real and fake news labels. Furthermore, MALCOM can also
fool black box fake news detectors to always output real news labels 90% of the
time on average. We also compare our attack model with four baselines across
two real-world datasets, not only on attack performance but also on generated
quality, coherency, transferability, and robustness.
- Abstract(参考訳): 近年、いわゆる「フェイクニュース」の普及は社会に大きな混乱をもたらし、ニュースエコシステムを弱体化させている。
そこで研究者たちは、高度なデータサイエンスと機械学習技術を用いて、ソーシャルメディア上の偽ニュースを自動的に検出する最先端のモデルを開発した。
そこで,本研究では,「敵がそのような検知モデルに攻撃を仕掛けたらどうするか」を問うとともに,関連する問題を調査する。
一 偽ニュース検知器に対する新たな脅威モデルを提案し、敵は偽ニュース検知器を誤解させるような悪質なコメントをニュース記事に投稿することができる。
(ii)このような攻撃を実現するために、エンドツーエンドの対向コメント生成フレームワークであるmalcomの開発。
包括的評価により、平均的MALCOMの94%と93.5%の時間は、最新のニューラル検出モデルのうち5つを誤解して、常にターゲットのリアルおよびフェイクニュースラベルを出力することに成功した。
さらに、MALCOMはブラックボックスの偽ニュース検知器を騙して、常に実際のニュースラベルを平均90%の時間で出力することができる。
また、攻撃モデルと2つの実世界のデータセットをまたいだ4つのベースラインを比較し、攻撃性能だけでなく、生成した品質、一貫性、転送性、堅牢性についても比較した。
関連論文リスト
- FakeWatch: A Framework for Detecting Fake News to Ensure Credible Elections [5.15641542196944]
フェイクニュースを検出するために慎重に設計された包括的フレームワークであるFakeWatchを紹介する。
我々のフレームワークは、従来の機械学習(ML)技術と最先端言語モデル(LM)の両方からなるモデルハブを統合している。
本研究の目的は,選挙議題における偽ニュースの特定に有効な,適応的で正確な分類モデルを提供することである。
論文 参考訳(メタデータ) (2024-03-14T20:39:26Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - FALSE: Fake News Automatic and Lightweight Solution [0.20999222360659603]
本稿では,現代のフェイクニュースデータセットの研究と可視化にR符号を用いた。
クラスタリング、分類、相関、およびさまざまなプロットを使用してデータを分析し、提示する。
論文 参考訳(メタデータ) (2022-08-16T11:53:30Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - How Vulnerable Are Automatic Fake News Detection Methods to Adversarial
Attacks? [0.6882042556551611]
本稿では、フェイクニュースを検出するために訓練された最先端モデルを自動的に攻撃することができることを示す。
その結果,Fake Newsの検出メカニズムを自動で回避することが可能であり,既存の政策イニシアチブに影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-16T15:36:03Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Weak Supervision for Fake News Detection via Reinforcement Learning [34.448503443582396]
本稿では,弱教師付きフェイクニュース検出フレームワークWeFENDを提案する。
提案するフレームワークは,アノテータ,強化セレクタ,フェイクニュース検出器の3つの主要コンポーネントで構成されている。
WeChatの公式アカウントと関連するユーザレポートを通じて発行された大量のニュース記事に対して,提案したフレームワークを検証した。
論文 参考訳(メタデータ) (2019-12-28T21:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。