論文の概要: Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection
- arxiv url: http://arxiv.org/abs/2406.11260v2
- Date: Mon, 22 Jul 2024 11:56:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 01:01:51.224284
- Title: Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection
- Title(参考訳): ロバストフェイクニュース検出のための大規模言語モデルによる対数スタイル拡張
- Authors: Sungwon Park, Sungwon Han, Meeyoung Cha,
- Abstract要約: 本研究は, 偽ニュース検知器の訓練を行うために, 対向型拡張AdStyleを提案する。
我々のモデルの主要なメカニズムは、LLMを慎重に使用して、多種多様なスタイル変換攻撃プロンプトを自動生成することである。
実験により、我々の拡張戦略は、フェイクニュースベンチマークデータセットでテストした場合の堅牢性と検出性能を改善することが示された。
- 参考スコア(独自算出の注目度): 18.998947450697337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The spread of fake news negatively impacts individuals and is regarded as a significant social challenge that needs to be addressed. A number of algorithmic and insightful features have been identified for detecting fake news. However, with the recent LLMs and their advanced generation capabilities, many of the detectable features (e.g., style-conversion attacks) can be altered, making it more challenging to distinguish from real news. This study proposes adversarial style augmentation, AdStyle, to train a fake news detector that remains robust against various style-conversion attacks. Our model's key mechanism is the careful use of LLMs to automatically generate a diverse yet coherent range of style-conversion attack prompts. This improves the generation of prompts that are particularly difficult for the detector to handle. Experiments show that our augmentation strategy improves robustness and detection performance when tested on fake news benchmark datasets.
- Abstract(参考訳): 偽ニュースの拡散は個人に悪影響を及ぼし、対処すべき重要な社会的課題と見なされている。
フェイクニュースを検出するアルゴリズムと洞察に富んだ特徴がいくつか特定されている。
しかし、最近のLLMとその高度な生成機能により、検出可能な機能(例えば、スタイル変換攻撃)の多くが変更され、実際のニュースと区別することがより困難になる。
本研究では,様々なスタイル転換攻撃に対して頑健な偽ニュース検知器をトレーニングするために,敵のスタイル拡張であるAdStyleを提案する。
我々のモデルの主要なメカニズムは、LLMを慎重に使用して、多種多様なスタイル変換攻撃プロンプトを自動生成することである。
これにより、検出器が扱うのが特に困難であるプロンプトの生成が向上する。
実験により、我々の拡張戦略は、フェイクニュースベンチマークデータセットでテストした場合の堅牢性と検出性能を改善することが示された。
関連論文リスト
- Detection of Human and Machine-Authored Fake News in Urdu [2.013675429941823]
ソーシャルメディアは偽ニュースの拡散を増幅した。
従来の偽ニュース検出手法は、言語的手がかりに依存しているため、効果が低くなる。
精度とロバスト性を改善するため,階層的検出手法を提案する。
論文 参考訳(メタデータ) (2024-10-25T12:42:07Z) - Real-time Fake News from Adversarial Feedback [11.742257531343814]
ファクトチェックWebサイトのクレームなど,従来の情報源に基づく偽ニュース検出の評価は,LCMベースの検出器の時間経過とともに精度が向上することを示す。
このことは、こうした情報源で偽ニュースの大半を形成する一般的な政治的主張が、表面的な浅層パターンによって容易に分類されることを示唆している。
我々は、RAGベースの検出器からの自然言語フィードバックを利用して、リアルタイムニュースをフェイクニュースに反復的に修正する新しいパイプラインを開発した。
論文 参考訳(メタデータ) (2024-10-18T17:47:11Z) - Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Exploring the Deceptive Power of LLM-Generated Fake News: A Study of Real-World Detection Challenges [21.425647152424585]
条件付き変分オートエンコーダライズプロンプト(VLPrompt)と呼ばれる強力なフェイクニュース攻撃手法を提案する。
現行のメソッドとは異なり、VLPromptはコンテキストコヒーレンスを維持しながら追加のデータ収集を不要にする。
さまざまな検出方法や新しい人間の研究指標を含む実験を行い,その性能をデータセット上で評価した。
論文 参考訳(メタデータ) (2024-03-27T04:39:18Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Fake News in Sheep's Clothing: Robust Fake News Detection Against LLM-Empowered Style Attacks [60.14025705964573]
SheepDogは、ニュースの正確性を決定する際に、スタイルよりもコンテンツを優先する、スタイルに反する偽ニュース検出ツールだ。
SheepDog はこのレジリエンスを,(1) LLM を利用したニュースリフレーミング,(2) 異なるスタイルに対応する記事のカスタマイズによる学習プロセスへのスタイル多様性の注入,(2) スタイルの異なるリフレーミング間で一貫した妥当性予測を保証するスタイル非依存のトレーニング,(3) LLM からコンテンツ中心のガイドラインを抽出して偽ニュースを抽出するコンテンツ中心の属性を通じて達成する。
論文 参考訳(メタデータ) (2023-10-16T21:05:12Z) - MGTBench: Benchmarking Machine-Generated Text Detection [54.81446366272403]
本稿では,強力な大規模言語モデル(LLM)に対するMGT検出のための最初のベンチマークフレームワークを提案する。
一般に単語が多ければ多いほど性能が向上し,ほとんどの検出手法はトレーニングサンプルをはるかに少なくして同様の性能が得られることを示す。
本研究は, テキスト属性タスクにおいて, モデルに基づく検出手法が依然として有効であることを示す。
論文 参考訳(メタデータ) (2023-03-26T21:12:36Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - A Multi-Policy Framework for Deep Learning-Based Fake News Detection [0.31498833540989407]
フェイクニュース検出を自動化するフレームワークであるMPSC(Multi-Policy Statement Checker)を導入する。
MPSCは、深層学習技術を用いて、文自体とその関連するニュース記事を分析し、それが信頼できるか疑わしいかを予測する。
論文 参考訳(メタデータ) (2022-06-01T21:25:21Z) - "That Is a Suspicious Reaction!": Interpreting Logits Variation to
Detect NLP Adversarial Attacks [0.2999888908665659]
敵攻撃は、現在の機械学習研究で直面する大きな課題である。
本研究は, 逆文例のモデルに依存しない検出法を提案する。
論文 参考訳(メタデータ) (2022-04-10T09:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。