論文の概要: Towards Robust Protective Perturbation against DeepFake Face Swapping
- arxiv url: http://arxiv.org/abs/2512.07228v1
- Date: Mon, 08 Dec 2025 07:12:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.753145
- Title: Towards Robust Protective Perturbation against DeepFake Face Swapping
- Title(参考訳): ディープフェイク・フェイス・スワッピングに対するロバスト保護摂動に向けて
- Authors: Hengyang Yao, Lin Li, Ke Sun, Jianing Qiu, Huiping Chen,
- Abstract要約: DeepFakeの顔交換は、極めて現実的なID偽造を可能にし、深刻なプライバシーとセキュリティリスクを生じさせる。
一般的な防御は見えない摂動をイメージに埋め込むが、それらは脆弱であり、圧縮やリサイズのような基本的な変換によって破壊されることが多い。
本稿では,まず6つのカテゴリにまたがる30の変換を系統的に解析し,保護ロバスト性はトレーニング変換の選択に非常に敏感であることを示す。
そこで本稿では, トランスフォーメーションを固定設計の選択ではなく, 学習可能なコンポーネントとして扱うためのフレームワークである, トランスフォーメーションの事前学習分布を提案する。
- 参考スコア(独自算出の注目度): 9.722447815149318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DeepFake face swapping enables highly realistic identity forgeries, posing serious privacy and security risks. A common defence embeds invisible perturbations into images, but these are fragile and often destroyed by basic transformations such as compression or resizing. In this paper, we first conduct a systematic analysis of 30 transformations across six categories and show that protection robustness is highly sensitive to the choice of training transformations, making the standard Expectation over Transformation (EOT) with uniform sampling fundamentally suboptimal. Motivated by this, we propose Expectation Over Learned distribution of Transformation (EOLT), the framework to treat transformation distribution as a learnable component rather than a fixed design choice. Specifically, EOLT employs a policy network that learns to automatically prioritize critical transformations and adaptively generate instance-specific perturbations via reinforcement learning, enabling explicit modeling of defensive bottlenecks while maintaining broad transferability. Extensive experiments demonstrate that our method achieves substantial improvements over state-of-the-art approaches, with 26% higher average robustness and up to 30% gains on challenging transformation categories.
- Abstract(参考訳): DeepFakeの顔交換は、極めて現実的なID偽造を可能にし、深刻なプライバシーとセキュリティリスクを生じさせる。
一般的な防御は見えない摂動をイメージに埋め込むが、それらは脆弱であり、圧縮やリサイズのような基本的な変換によって破壊されることが多い。
本稿では、まず、6つのカテゴリにわたる30の変換を体系的に分析し、保護ロバスト性はトレーニング変換の選択に非常に敏感であることを示す。
そこで本稿では, トランスフォーメーションを固定設計の選択ではなく, 学習可能なコンポーネントとして扱うためのフレームワークである, トランスフォーメーションの事前学習分布 (EOLT) を提案する。
具体的には、EOLTは、重要な変換を自動的に優先順位付けし、強化学習を通じてインスタンス固有の摂動を適応的に生成することを学び、広い転送可能性を維持しながら防御ボトルネックの明示的なモデリングを可能にする。
大規模な実験により,本手法は最先端手法よりも大幅に向上し,平均ロバスト性は26%,挑戦的変換カテゴリでは最大30%向上した。
関連論文リスト
- Enhancing Variational Autoencoders with Smooth Robust Latent Encoding [54.74721202894622]
変分オートエンコーダ(VAE)は拡散に基づく生成モデルをスケールアップする上で重要な役割を果たしている。
Smooth Robust Latent VAEは、世代品質とロバスト性の両方を向上する、新しい対向トレーニングフレームワークである。
実験により、SRL-VAEは、Nightshade攻撃や画像編集攻撃に対して、画像再構成とテキスト誘導画像編集において、生成品質とロバスト性の両方を改善することが示された。
論文 参考訳(メタデータ) (2025-04-24T03:17:57Z) - Efficient Safety Alignment of Large Language Models via Preference Re-ranking and Representation-based Reward Modeling [84.00480999255628]
大規模言語モデル(LLM)の安全性アライメントのための強化学習アルゴリズムは,分散シフトの課題に直面している。
現在のアプローチでは、ターゲットポリシーからのオンラインサンプリングを通じてこの問題に対処するのが一般的である。
モデル固有の安全判断能力を活用して報酬信号を抽出する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-13T06:40:34Z) - Enhancing Adversarial Transferability via Component-Wise Transformation [28.209214055953844]
本稿では,CWT(Component-Wise Transformation)と呼ばれる新しい入力ベースの攻撃手法を提案する。
CWTは個々の画像ブロックに選択的回転を適用し、変換された各画像が異なるターゲット領域をハイライトすることを保証する。
標準のImageNetデータセットの実験では、CWTは攻撃成功率と安定性の両方において、最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-01-21T05:41:09Z) - Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - Enhancing Transferability of Targeted Adversarial Examples: A Self-Universal Perspective [13.557972227440832]
ブラックボックスディープニューラルネットワーク(DNN)に対するトランスファーベースの敵攻撃は、未ターゲットの攻撃よりもはるかに難しいことが証明されている。
生成方法である現在のSOTAの印象的な転送性は、大量の追加データを必要とするコストと、ターゲットラベルごとに時間のかかるトレーニングが伴う。
私たちは、この目標を追求する際の入力変換の大きな可能性を明らかにする、自己普遍的な視点を提供します。
論文 参考訳(メタデータ) (2024-07-22T14:51:28Z) - Transform-Dependent Adversarial Attacks [15.374381635334897]
深層ネットワークに対する変換依存型敵攻撃を導入する。
我々の摂動は変成特性を示し、変換パラメータの関数として多様な逆効果を可能にする。
変換に依存した摂動は、ブラックボックスのシナリオにおいて、最先端の移動攻撃よりも17~31%優れ、高い目標攻撃成功率が得られることを示す。
論文 参考訳(メタデータ) (2024-06-12T17:31:36Z) - Stabilizing Transformer Training by Preventing Attention Entropy
Collapse [56.45313891694746]
本研究は,トランスフォーマーのトレーニングダイナミクスについて,注目層の進化について検討する。
我々は、$sigma$Reparamが注意層におけるエントロピー崩壊を防ぎ、より安定したトレーニングを促進することを示す。
画像分類、画像自己教師型学習、機械翻訳、音声認識、言語モデリングタスクについて、$sigma$Reparamで実験を行った。
論文 参考訳(メタデータ) (2023-03-11T03:30:47Z) - Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy [52.153866313879924]
敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
論文 参考訳(メタデータ) (2021-08-16T11:52:41Z) - Self-supervised Augmentation Consistency for Adapting Semantic
Segmentation [56.91850268635183]
本稿では,実用的かつ高精度な意味セグメンテーションのためのドメイン適応手法を提案する。
私たちは標準データ拡張技術である$-$フォトメトリックノイズ、フリップとスケーリング$-$を採用し、セマンティック予測の一貫性を保証する。
適応後の最先端セグメンテーション精度を大幅に改善し、バックボーンアーキテクチャと適応シナリオの異なる選択に整合性を持たせる。
論文 参考訳(メタデータ) (2021-04-30T21:32:40Z) - Where Does the Robustness Come from? A Study of the Transformation-based
Ensemble Defence [12.973226757056462]
堅牢性の改善がトランスフォーメーションやアンサンブルの結果であるかどうかは不明だ。
我々は,1) 異なる可逆変換後のデータレコード上で訓練されたモデルの中に,逆例の転送可能性が存在すること,2) 変換に基づくアンサンブルによるロバスト性は限定的であること,3) この制限されたロバスト性は,多くのモデルのアンサンブルではなく,主に可逆変換によるものであること,を示す実験を行う。
論文 参考訳(メタデータ) (2020-09-28T02:55:56Z) - TSS: Transformation-Specific Smoothing for Robustness Certification [37.87602431929278]
動機付けられた敵は、セマンティックトランスフォーメーションを使用してテストデータを摂動することで、機械学習システムを誤解させる可能性がある。
TSS -- 汎用の敵対的セマンティックトランスフォーメーションに対して、MLの堅牢性を証明するための統一的なフレームワークを提供する。
TSSは大規模なImageNetデータセット上で、非自明な証明された堅牢性を実現する最初のアプローチであることを示す。
論文 参考訳(メタデータ) (2020-02-27T19:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。