論文の概要: Boosting Active Defense Persistence: A Two-Stage Defense Framework Combining Interruption and Poisoning Against Deepfake
- arxiv url: http://arxiv.org/abs/2508.07795v2
- Date: Mon, 18 Aug 2025 06:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 12:43:44.87696
- Title: Boosting Active Defense Persistence: A Two-Stage Defense Framework Combining Interruption and Poisoning Against Deepfake
- Title(参考訳): アクティブディフェンスの持続性を高める: 中断とディープフェイクに対する中毒を兼ね備えた2段階ディフェンスフレームワーク
- Authors: Hongrui Zheng, Yuezun Li, Liejun Wang, Yunfeng Diao, Zhiqing Guo,
- Abstract要約: 我々は、効果的な防御が偽のコンテンツを歪ませるだけでなく、モデルが適応する能力を阻害すると主張している。
これを実現するために,革新的な2段階防衛フレームワーク(TSDF)を提案する。
我々のフレームワークは、アクティブディフェンスの持続性を向上できる強力なデュアルディフェンス能力を示している。
- 参考スコア(独自算出の注目度): 14.10448497174767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active defense strategies have been developed to counter the threat of deepfake technology. However, a primary challenge is their lack of persistence, as their effectiveness is often short-lived. Attackers can bypass these defenses by simply collecting protected samples and retraining their models. This means that static defenses inevitably fail when attackers retrain their models, which severely limits practical use. We argue that an effective defense not only distorts forged content but also blocks the model's ability to adapt, which occurs when attackers retrain their models on protected images. To achieve this, we propose an innovative Two-Stage Defense Framework (TSDF). Benefiting from the intensity separation mechanism designed in this paper, the framework uses dual-function adversarial perturbations to perform two roles. First, it can directly distort the forged results. Second, it acts as a poisoning vehicle that disrupts the data preparation process essential for an attacker's retraining pipeline. By poisoning the data source, TSDF aims to prevent the attacker's model from adapting to the defensive perturbations, thus ensuring the defense remains effective long-term. Comprehensive experiments show that the performance of traditional interruption methods degrades sharply when it is subjected to adversarial retraining. However, our framework shows a strong dual defense capability, which can improve the persistence of active defense. Our code will be available at https://github.com/vpsg-research/TSDF.
- Abstract(参考訳): ディープフェイク技術の脅威に対抗するために、アクティブな防衛戦略が開発されている。
しかしながら、その有効性はしばしば短命であるため、主要な課題は持続性の欠如である。
攻撃者は、保護されたサンプルを収集してモデルを再訓練することで、これらの防御を回避できる。
これは、攻撃者がモデルを再訓練する際に必然的に静的防御が失敗し、実用的な使用が著しく制限されることを意味する。
攻撃者が保護された画像上でモデルを再訓練した場合に発生する、偽コンテンツを歪ませるだけでなく、モデルが適応する能力を阻害する効果があると主張している。
そこで我々は,革新的な2段階防衛フレームワーク(TSDF)を提案する。
本論文で設計した強度分離機構を応用し, 二重機能対向摂動を用いて2つの役割を遂行する。
まず、偽造された結果を直接歪めることができる。
第2に、攻撃者の再訓練パイプラインに不可欠なデータ準備プロセスを妨害する中毒車両として機能する。
データソースを汚染することにより、TSDFは攻撃者のモデルが防御的摂動に適応することを防ぐことを目的としており、防御が長期間有効であることを保証する。
総合実験により, 従来の割り込み法の性能は, 対向的再訓練を受けると急激に低下することが示された。
しかし,我々のフレームワークは,アクティブ・ディフェンスの持続性を向上させる強力なデュアル・ディフェンス能力を示している。
私たちのコードはhttps://github.com/vpsg-research/TSDFで公開されます。
関連論文リスト
- Chasing Moving Targets with Online Self-Play Reinforcement Learning for Safer Language Models [55.28518567702213]
従来の言語モデル(LM)の安全性アライメントは、リアクティブで非結合な手順に依存している。
このシーケンシャルなアプローチはミスマッチを生み出し、攻撃者は時代遅れの防御に過度に適合する一方、守備側は出現する脅威に常に遅れをとどめている。
我々は,攻撃者と防御エージェントが継続的なインタラクションを通じて共進化するオンラインセルフプレイ強化学習アルゴリズムであるSelf-RedTeamを提案する。
論文 参考訳(メタデータ) (2025-06-09T06:35:12Z) - Versatile Defense Against Adversarial Attacks on Image Recognition [2.9980620769521513]
現実の環境での敵の攻撃に対する防御は、アンチウイルスソフトの動作方法と比較することができる。
画像から画像への翻訳をベースとした防御手法が実現可能であると考えられる。
訓練されたモデルは、分類精度をほぼゼロから平均86%に改善した。
論文 参考訳(メタデータ) (2024-03-13T01:48:01Z) - Diffence: Fencing Membership Privacy With Diffusion Models [14.633898825111828]
ディープラーニングモデルは、メンバーシップ推論攻撃(MIA)に対して脆弱である
生成モデルを活用することでMIAに対する新たな防御フレームワークを導入する。
当社の防衛はDIFFENCEと呼ばれ、事前推論を行います。
論文 参考訳(メタデータ) (2023-12-07T20:45:09Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Efficient Defense Against Model Stealing Attacks on Convolutional Neural
Networks [0.548924822963045]
モデル盗難攻撃は知的財産の盗難や他のセキュリティやプライバシーのリスクにつながる可能性がある。
モデル盗難攻撃に対する現在の最先端の防御は、予測確率に摂動を加えることを示唆している。
我々は、シンプルで効果的で効率的な防衛代替案を提案する。
論文 参考訳(メタデータ) (2023-09-04T22:25:49Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Mitigating Gradient-based Adversarial Attacks via Denoising and
Compression [7.305019142196582]
深層ニューラルネットワークに対する勾配に基づく逆攻撃は深刻な脅威となる。
それらは、任意のネットワークのテストデータに不可避な摂動を追加することでデプロイできる。
デノイジングと寸法減少は、そのような攻撃に対抗するために調査された2つの異なる方法である。
論文 参考訳(メタデータ) (2021-04-03T22:57:01Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。