論文の概要: A Symbolic Adversarial Learning Framework for Evolving Fake News Generation and Detection
- arxiv url: http://arxiv.org/abs/2508.19633v1
- Date: Wed, 27 Aug 2025 07:14:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.539362
- Title: A Symbolic Adversarial Learning Framework for Evolving Fake News Generation and Detection
- Title(参考訳): フェイクニュースの生成と検出を進化させるシンボリック・逆学習フレームワーク
- Authors: Chong Tian, Qirong Ho, Xiuying Chen,
- Abstract要約: 本稿では, 対角学習パラダイムを実装した, シンボリック適応学習フレームワーク(SALF, Symbolic Adversarial Learning Framework)を提案する。
SALFはエージェントシンボル学習を用いてエージェントを表現し、学習可能なウェイトはエージェントプロンプトによって定義され、バックプロパゲーションと勾配降下をシミュレートする。
2つの多言語ベンチマークデータセットの実験は、SALFの有効性を示し、最先端検出性能を最大53.4%、英語で最大34.2%低下させる洗練されたフェイクニュースを生成することを示した。
- 参考スコア(独自算出の注目度): 19.470268061557764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid LLM advancements heighten fake news risks by enabling the automatic generation of increasingly sophisticated misinformation. Previous detection methods, including fine-tuned small models or LLM-based detectors, often struggle with its dynamically evolving nature. In this work, we propose a novel framework called the Symbolic Adversarial Learning Framework (SALF), which implements an adversarial training paradigm by an agent symbolic learning optimization process, rather than relying on numerical updates. SALF introduces a paradigm where the generation agent crafts deceptive narratives, and the detection agent uses structured debates to identify logical and factual flaws for detection, and they iteratively refine themselves through such adversarial interactions. Unlike traditional neural updates, we represent agents using agent symbolic learning, where learnable weights are defined by agent prompts, and simulate back-propagation and gradient descent by operating on natural language representations of weights, loss, and gradients. Experiments on two multilingual benchmark datasets demonstrate SALF's effectiveness, showing it generates sophisticated fake news that degrades state-of-the-art detection performance by up to 53.4% in Chinese and 34.2% in English on average. SALF also refines detectors, improving detection of refined content by up to 7.7%. We hope our work inspires further exploration into more robust, adaptable fake news detection systems.
- Abstract(参考訳): LLMの急速な進歩は、ますます洗練された誤情報の自動生成を可能にすることによって、フェイクニュースのリスクを高める。
微調整された小型モデルやLDMベースの検出器を含む以前の検出方法は、しばしばその動的に進化する性質に苦しむ。
本研究では,数値更新に頼るのではなく,エージェントの記号学習最適化プロセスによる逆学習パラダイムを実装した,SALF(Symbolic Adversarial Learning Framework)という新しいフレームワークを提案する。
SALFは、世代エージェントが偽りの物語を制作するパラダイムを導入し、検出エージェントは構造化された議論を使用して、検出のための論理的および事実的欠陥を識別し、そのような敵対的相互作用を通じて反復的に洗練する。
従来のニューラルネットワークとは異なり、エージェントシンボル学習を用いてエージェントを表現し、エージェントプロンプトによって学習可能なウェイトが定義され、ウェイト、損失、勾配の自然言語表現を操作することによって、バックプロパゲーションと勾配降下をシミュレートする。
2つの多言語ベンチマークデータセットの実験は、SALFの有効性を示し、最先端の検出性能を最大53.4%、英語を平均34.2%低下させる洗練されたフェイクニュースを生成することを示した。
SALFはまた検出器を改良し、精製された内容物の検出を最大7.7%改善した。
われわれの研究が、より堅牢で適応可能な偽ニュース検知システムを探究するきっかけになることを願っている。
関連論文リスト
- Collaborative Evolution: Multi-Round Learning Between Large and Small Language Models for Emergent Fake News Detection [12.65676695802598]
大規模言語モデル(LLM)は、関連するデモンストレーションの欠如と知識のダイナミックな性質のために、偽ニュースを効果的に識別するのに不足している。
本稿では,これらの制約に対処するため,MRCD(Multi-Round Collaboration Detection)を提案する。
我々のフレームワークMRCDは、2つの実世界のデータセットPhemeとTwitter16でSOTA結果を実現し、SLMのみを使用する場合と比較して精度は7.4%と12.8%向上した。
論文 参考訳(メタデータ) (2025-03-27T03:39:26Z) - Challenges and Innovations in LLM-Powered Fake News Detection: A Synthesis of Approaches and Future Directions [0.0]
偽ニュースの拡散は ソーシャルメディアのプラットフォームを通じて 一般大衆の信頼に 重大なリスクをもたらします
最近の研究には、マルチモーダルフレームワークにおける大規模言語モデルによる検出の強化が含まれている。
このレビューでは、ダイナミックなソーシャルメディアトレンド、リアルタイム、クロスプラットフォーム検出機能への適応性の重大なギャップがさらに明らかになった。
論文 参考訳(メタデータ) (2025-02-01T06:56:17Z) - Dynamic Analysis and Adaptive Discriminator for Fake News Detection [59.41431561403343]
偽ニュース検出のための動的解析・適応識別器(DAAD)手法を提案する。
知識に基づく手法では,モンテカルロ木探索アルゴリズムを導入し,大規模言語モデルの自己表現能力を活用する。
意味に基づく手法では、偽ニュース生成のメカニズムを明らかにするために、典型的偽造パターンを4つ定義する。
論文 参考訳(メタデータ) (2024-08-20T14:13:54Z) - Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection [48.545082903061136]
本研究は, 偽ニュース検知器の訓練を目的とした, 対向型拡張AdStyleを提案する。
主要なメカニズムは、LLMを戦略的に利用して、多様で一貫性のあるスタイル変換攻撃プロンプトを自動生成することである。
実験結果から,我々の拡張戦略は,偽ニュースベンチマークデータセットで評価した場合のロバストネスと検出性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T07:00:41Z) - Humanizing Machine-Generated Content: Evading AI-Text Detection through Adversarial Attack [24.954755569786396]
そこで本研究では,機械生成コンテンツの小さな摂動を回避して検出を回避すべく,より広いレベルの敵攻撃のためのフレームワークを提案する。
我々は、ホワイトボックスとブラックボックスの2つの攻撃設定を検討し、現在の検出モデルのロバスト性を高める可能性を評価するために、動的シナリオにおける逆学習を採用する。
実験の結果、現在の検出モデルは10秒で妥協でき、機械が生成したテキストを人間の書き起こしコンテンツとして誤分類する結果となった。
論文 参考訳(メタデータ) (2024-04-02T12:49:22Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。