論文の概要: Associative Poisoning to Generative Machine Learning
- arxiv url: http://arxiv.org/abs/2511.05177v1
- Date: Fri, 07 Nov 2025 11:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.751127
- Title: Associative Poisoning to Generative Machine Learning
- Title(参考訳): ジェネレーティブ機械学習への連想的中毒
- Authors: Mathias Lundteigen Mohus, Jingyue Li, Zhirong Yang,
- Abstract要約: 我々は連想中毒と呼ばれる新しいデータ中毒技術を紹介した。
トレーニングプロセスの制御を必要とせずに、生成されたデータのきめ細かい特徴を損なう。
この攻撃は、生成された出力中の特定の特徴ペア間の統計的関連を操作するためのトレーニングデータのみを摂動する。
- 参考スコア(独自算出の注目度): 5.094623170336122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of generative models such as Stable Diffusion and ChatGPT has made them increasingly attractive targets for malicious exploitation, particularly through data poisoning. Existing poisoning attacks compromising synthesised data typically either cause broad degradation of generated data or require control over the training process, limiting their applicability in real-world scenarios. In this paper, we introduce a novel data poisoning technique called associative poisoning, which compromises fine-grained features of the generated data without requiring control of the training process. This attack perturbs only the training data to manipulate statistical associations between specific feature pairs in the generated outputs. We provide a formal mathematical formulation of the attack and prove its theoretical feasibility and stealthiness. Empirical evaluations using two state-of-the-art generative models demonstrate that associative poisoning effectively induces or suppresses feature associations while preserving the marginal distributions of the targeted features and maintaining high-quality outputs, thereby evading visual detection. These results suggest that generative systems used in image synthesis, synthetic dataset generation, and natural language processing are susceptible to subtle, stealthy manipulations that compromise their statistical integrity. To address this risk, we examine the limitations of existing defensive strategies and propose a novel countermeasure strategy.
- Abstract(参考訳): 安定拡散(Stable Diffusion)やChatGPT(ChatGPT)のような生成モデルの普及により、悪意のあるエクスプロイト(特にデータ中毒)に対する魅力的なターゲットが増えている。
既存の中毒攻撃による合成データの汚染は通常、生成されたデータの広範な劣化を引き起こすか、トレーニングプロセスの制御を必要とするか、現実のシナリオにおける適用性を制限する。
本稿では, 学習過程の制御を必要とせず, 生成したデータのきめ細かい特徴を損なうアソシエイト中毒という新しいデータ中毒手法を提案する。
この攻撃は、生成された出力中の特定の特徴ペア間の統計的関連を操作するためのトレーニングデータのみを摂動する。
我々は攻撃の数学的定式化を提供し、その理論的実現可能性とステルス性を証明する。
2つの最先端生成モデルを用いた実証評価では、連想毒は標的特徴の限界分布を保ち、高品質な出力を維持しながら、特徴関連を効果的に誘導または抑制し、視覚的検出を回避することが示されている。
これらの結果は、画像合成、合成データセット生成、自然言語処理に使用される生成システムは、その統計的完全性を損なう微妙でステルス的な操作の影響を受けやすいことを示唆している。
このリスクに対処するため,既存の防衛戦略の限界について検討し,新たな対策戦略を提案する。
関連論文リスト
- Virus Infection Attack on LLMs: Your Poisoning Can Spread "VIA" Synthetic Data [24.21219815496624]
本稿では,大規模言語モデルに対する合成データ統合学習のレジリエンスを定量的に評価する。
本稿では,ウイルス感染攻撃(VIA)という,新規で普遍的な攻撃枠組みを導入する。
論文 参考訳(メタデータ) (2025-09-27T01:39:41Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Exploring the Limits of Model-Targeted Indiscriminate Data Poisoning
Attacks [31.339252233416477]
対象パラメータに対するデータ中毒攻撃の本質的な限界を探索するための技術ツールとして,モデル中毒の到達可能性の概念を紹介した。
我々は、一般的なMLモデルの中で驚くべき位相遷移現象を確立し、定量化するために、容易に計算可能なしきい値を得る。
我々の研究は, 有毒比がもたらす重要な役割を強調し, データ中毒における既存の経験的結果, 攻撃, 緩和戦略に関する新たな知見を隠蔽する。
論文 参考訳(メタデータ) (2023-03-07T01:55:26Z) - Temporal Robustness against Data Poisoning [69.01705108817785]
データ中毒は、悪意のあるトレーニングデータを通じて、敵対者が機械学習アルゴリズムの振る舞いを操作する場合を考慮している。
本研究では,攻撃開始時間と攻撃持続時間を測定する2つの新しい指標である耳線と持続時間を用いたデータ中毒の時間的脅威モデルを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:59:19Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。