論文の概要: Exploring Semantic Perturbations on Grover
- arxiv url: http://arxiv.org/abs/2302.00509v1
- Date: Wed, 1 Feb 2023 15:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 12:47:38.463274
- Title: Exploring Semantic Perturbations on Grover
- Title(参考訳): グローバーのセマンティック摂動探査
- Authors: Pranav Kulkarni, Ziqing Ji, Yan Xu, Marko Neskovic, Kevin Nolan
- Abstract要約: ニューラルフェイクニュース(AI生成フェイクニュース)の台頭は、それを検出するモデルの開発を促している。
このようなモデルのひとつがGroverモデルで、ニューラルフェイクニュースを検出して防止し、モデルがどのように誤用されるかを示すために生成する。
本研究では,入力されたニュース記事の摂動を通じて標的攻撃を行うことにより,Groverモデルの偽ニュース検出機能について検討する。
- 参考スコア(独自算出の注目度): 6.665472061935394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With news and information being as easy to access as they currently are, it
is more important than ever to ensure that people are not mislead by what they
read. Recently, the rise of neural fake news (AI-generated fake news) and its
demonstrated effectiveness at fooling humans has prompted the development of
models to detect it. One such model is the Grover model, which can both detect
neural fake news to prevent it, and generate it to demonstrate how a model
could be misused to fool human readers. In this work we explore the Grover
model's fake news detection capabilities by performing targeted attacks through
perturbations on input news articles. Through this we test Grover's resilience
to these adversarial attacks and expose some potential vulnerabilities which
should be addressed in further iterations to ensure it can detect all types of
fake news accurately.
- Abstract(参考訳): ニュースや情報は、現在のように簡単にアクセスできるため、人々が読むものを誤解しないようにすることが、これまで以上に重要です。
近年、ニューラルフェイクニュース(AI生成フェイクニュース)の台頭と、人間を騙す効果が証明され、それを検出するモデルの開発が進められている。
このようなモデルのひとつがGroverモデルで、ニューラルフェイクニュースを検出してそれを防止し、それを生成して、モデルが人間の読者を騙すためにどのように悪用されるかを示す。
本研究では,入力ニュース記事の摂動を通じてターゲット攻撃を行うことで,グローバーモデルの偽ニュース検出機能を検討する。
これにより、Groverのこのような敵攻撃に対するレジリエンスをテストし、さらなるイテレーションで対処すべき潜在的な脆弱性を明らかにし、あらゆる種類の偽ニュースを正確に検出できるようにします。
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Human Brains Can't Detect Fake News: A Neuro-Cognitive Study of Textual
Disinformation Susceptibility [2.131521514043068]
フェイクニュース」は間違いなくインターネット上で最も重要な脅威の1つです。
フェイクニュースは、インターネットユーザーが偽のニュース記事やスニペットを読んだ後に正当であると認識しているかどうかをひそかに攻撃する。
脳波による偽ニュース・実ニュースに関連する神経基盤について検討する。
論文 参考訳(メタデータ) (2022-07-18T04:31:07Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Automated Fake News Detection using cross-checking with reliable sources [0.0]
我々は、信頼できる情報源で新しい情報をクロスチェックするために、自然な人間の行動を利用する。
われわれはこれをTwitterに実装し、偽ツイートにフラグを付けるモデルを構築している。
このアプローチの実装により、他の一般的な偽ニュース分類モデルを上回る70%の精度が得られます。
論文 参考訳(メタデータ) (2022-01-01T00:59:58Z) - How Vulnerable Are Automatic Fake News Detection Methods to Adversarial
Attacks? [0.6882042556551611]
本稿では、フェイクニュースを検出するために訓練された最先端モデルを自動的に攻撃することができることを示す。
その結果,Fake Newsの検出メカニズムを自動で回避することが可能であり,既存の政策イニシアチブに影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-16T15:36:03Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - MALCOM: Generating Malicious Comments to Attack Neural Fake News
Detection Models [40.51057705796747]
MALCOMは、このような攻撃を行うためのエンドツーエンドのコメント生成フレームワークである。
我々は、平均的なMALCOMでの時間の約94%と93.5%が、最新のニューラル検出モデルの5つを誤解させることに成功したことを実証した。
また、我々の攻撃モデルと実際の2つのデータセットの4つのベースラインを比較します。
論文 参考訳(メタデータ) (2020-09-01T01:26:01Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。