論文の概要: Exposing Pink Slime Journalism: Linguistic Signatures and Robust Detection Against LLM-Generated Threats
- arxiv url: http://arxiv.org/abs/2512.05331v1
- Date: Fri, 05 Dec 2025 00:18:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.848347
- Title: Exposing Pink Slime Journalism: Linguistic Signatures and Robust Detection Against LLM-Generated Threats
- Title(参考訳): ピンク・スライム・ジャーナリズムの暴露:LLMによる脅威に対する言語的シグナチャとロバスト検出
- Authors: Sadat Shahriar, Navid Ayoobi, Arjun Mukherjee, Mostafa Musharrat, Sai Vishnu Vamsi,
- Abstract要約: 地元ニュース界は、2800万人のアメリカ人にとって信頼できる情報源であり、ピンク・スライム・ジャーナリズムからの脅威が高まっている。
我々は,Pink Slimeコンテンツの識別パターンを明らかにするために研究を行い,これらの知見に基づいて検出戦略を提案する。
この脅威に対処するために、我々は、敵対的攻撃に抵抗し、自動ピンクスライムジャーナリズムの進化する景観に適応するように特別に設計された堅牢な学習フレームワークを導入する。
- 参考スコア(独自算出の注目度): 0.6111244438444333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The local news landscape, a vital source of reliable information for 28 million Americans, faces a growing threat from Pink Slime Journalism, a low-quality, auto-generated articles that mimic legitimate local reporting. Detecting these deceptive articles requires a fine-grained analysis of their linguistic, stylistic, and lexical characteristics. In this work, we conduct a comprehensive study to uncover the distinguishing patterns of Pink Slime content and propose detection strategies based on these insights. Beyond traditional generation methods, we highlight a new adversarial vector: modifications through large language models (LLMs). Our findings reveal that even consumer-accessible LLMs can significantly undermine existing detection systems, reducing their performance by up to 40% in F1-score. To counter this threat, we introduce a robust learning framework specifically designed to resist LLM-based adversarial attacks and adapt to the evolving landscape of automated pink slime journalism, and showed and improvement by up to 27%.
- Abstract(参考訳): 地元ニュースは、2800万人のアメリカ人にとって重要な情報源であり、質の低い自動生成記事であるピンク・スライム・ジャーナリズムの脅威に直面している。
これらの偽装記事を検出するには、その言語的、スタイリスティック、語彙的特徴のきめ細かい分析が必要である。
本研究では,ピンクスライム内容の識別パターンを明らかにするための総合的研究を行い,これらの知見に基づく検出戦略を提案する。
従来の生成法以外にも,大きな言語モデル(LLM)による修正という,新たな逆ベクトルが注目されている。
以上の結果から,消費者が利用可能なLCMであっても既存の検出システムを著しく損なう可能性があり,F1スコアの40%まで性能が低下することが判明した。
この脅威に対処するため、我々はLSMベースの敵対的攻撃に抵抗し、自動ピンクスライムジャーナリズムの進化する景観に適応するように特別に設計された堅牢な学習フレームワークを導入し、最大27%改善した。
関連論文リスト
- A Multilingual, Large-Scale Study of the Interplay between LLM Safeguards, Personalisation, and Disinformation [12.577461004484604]
本研究では,Large Language Models (LLMs) によるペルソナ対象の偽情報生成の大規模多言語解析を行った。
我々は、AI-TRAITSにおいて、英語、ロシア語、ポルトガル語、ヒンディー語という4つの言語にまたがる324の虚偽の物語と150の人口的ペルソナを持つ8つの最先端のLLMを推進します。
結果は、たとえ単純なパーソナライゼーションでも、脱獄の可能性が著しく増加することを示している。
論文 参考訳(メタデータ) (2025-10-14T21:10:50Z) - A Symbolic Adversarial Learning Framework for Evolving Fake News Generation and Detection [19.470268061557764]
本稿では, 対角学習パラダイムを実装した, シンボリック適応学習フレームワーク(SALF, Symbolic Adversarial Learning Framework)を提案する。
SALFはエージェントシンボル学習を用いてエージェントを表現し、学習可能なウェイトはエージェントプロンプトによって定義され、バックプロパゲーションと勾配降下をシミュレートする。
2つの多言語ベンチマークデータセットの実験は、SALFの有効性を示し、最先端検出性能を最大53.4%、英語で最大34.2%低下させる洗練されたフェイクニュースを生成することを示した。
論文 参考訳(メタデータ) (2025-08-27T07:14:17Z) - Prompt-Induced Linguistic Fingerprints for LLM-Generated Fake News Detection [35.51961877931122]
言語的フィンガープリント抽出法(LIFE)を提案する。
単語レベルの確率分布を再構成することにより、LIFEはLLM生成フェイクニュースの検出を容易にする識別パターンを見つけることができる。
実験の結果, LIFE は LLM 生成フェイクニュースにおける最先端のパフォーマンスを達成し, 人手によるフェイクニュースにおけるハイパフォーマンスを維持していることがわかった。
論文 参考訳(メタデータ) (2025-08-18T05:24:54Z) - Paper Summary Attack: Jailbreaking LLMs through LLM Safety Papers [61.57691030102618]
我々は新しいジェイルブレイク手法であるペーパー・サプリメント・アタック(llmnamePSA)を提案する。
攻撃に焦点をあてたLLM安全紙からコンテンツを合成し、敵のプロンプトテンプレートを構築する。
実験では、ベースLLMだけでなく、Deepseek-R1のような最先端の推論モデルにも重大な脆弱性がある。
論文 参考訳(メタデータ) (2025-07-17T18:33:50Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection [48.545082903061136]
本研究は, 偽ニュース検知器の訓練を目的とした, 対向型拡張AdStyleを提案する。
主要なメカニズムは、LLMを戦略的に利用して、多様で一貫性のあるスタイル変換攻撃プロンプトを自動生成することである。
実験結果から,我々の拡張戦略は,偽ニュースベンチマークデータセットで評価した場合のロバストネスと検出性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T07:00:41Z) - Language Models can Subtly Deceive Without Lying: A Case Study on Strategic Phrasing in Legislation [23.309640920644565]
大規模言語モデル(LLM)は、戦略的に表現し、意図的に情報を操作することで微妙な偽装を行う。
本研究は,中性言語が自己維持目標を達成するために,LSMの戦略的表現能力のリスクを強調した。
論文 参考訳(メタデータ) (2024-05-07T13:55:11Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - Fake News Detectors are Biased against Texts Generated by Large Language
Models [39.36284616311687]
フェイクニュースの拡散は、信頼を弱め、社会への脅威を訴える重要な課題として浮上している。
本稿では,人間の書き起こしとLLM生成の両方の誤情報を含むシナリオにおいて,偽ニュース検知器を評価するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-09-15T18:04:40Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。