論文の概要: A Crack in the Bark: Leveraging Public Knowledge to Remove Tree-Ring Watermarks
- arxiv url: http://arxiv.org/abs/2506.10502v1
- Date: Thu, 12 Jun 2025 09:02:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.663006
- Title: A Crack in the Bark: Leveraging Public Knowledge to Remove Tree-Ring Watermarks
- Title(参考訳): 樹皮のひび割れ:樹皮の透かしを除去するための公共知識の活用
- Authors: Junhua Lin, Marc Juarez,
- Abstract要約: 本稿では拡散モデルの透かし技術であるツリーリングに対する新たな攻撃を提案する。
我々の攻撃は、ターゲット拡散モデルのトレーニングに使用された変分オートエンコーダへのアクセスのみを必要とする。
以上の結果から,従来の評価で見過ごされた測定値であるツリーリング検出器の精度は,実世界展開の要件に満たされていないことが示唆された。
- 参考スコア(独自算出の注目度): 5.678271181959529
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a novel attack specifically designed against Tree-Ring, a watermarking technique for diffusion models known for its high imperceptibility and robustness against removal attacks. Unlike previous removal attacks, which rely on strong assumptions about attacker capabilities, our attack only requires access to the variational autoencoder that was used to train the target diffusion model, a component that is often publicly available. By leveraging this variational autoencoder, the attacker can approximate the model's intermediate latent space, enabling more effective surrogate-based attacks. Our evaluation shows that this approach leads to a dramatic reduction in the AUC of Tree-Ring detector's ROC and PR curves, decreasing from 0.993 to 0.153 and from 0.994 to 0.385, respectively, while maintaining high image quality. Notably, our attacks outperform existing methods that assume full access to the diffusion model. These findings highlight the risk of reusing public autoencoders to train diffusion models -- a threat not considered by current industry practices. Furthermore, the results suggest that the Tree-Ring detector's precision, a metric that has been overlooked by previous evaluations, falls short of the requirements for real-world deployment.
- Abstract(参考訳): 本報告では, 拡散モデルに対する透かし技術であるツリーリングに対して, 除去攻撃に対する高い受容性と堅牢性で特異的に設計された新しい攻撃法を提案する。
攻撃能力に関する強い仮定に依存する以前の削除攻撃とは異なり、我々の攻撃はターゲット拡散モデルをトレーニングするために使用された変分オートエンコーダへのアクセスのみを必要とする。
この変分オートエンコーダを利用することで、攻撃者はモデルの中間潜伏空間を近似し、より効果的な代理ベースの攻撃を可能にする。
提案手法は,高画質を維持しつつ,木リンク検出器のROC曲線とPR曲線のAUCを0.993から0.153へ,0.994から0.385へと劇的に減少させることを示す。
特に、我々の攻撃は拡散モデルへの完全なアクセスを前提とした既存の手法よりも優れている。
これらの発見は、拡散モデルをトレーニングするために公共のオートエンコーダを再利用するリスクを浮き彫りにしている。
さらに,従来の評価で見過ごされた測定値であるツリーリング検出器の精度が,実世界展開の要件に満たされていないことが示唆された。
関連論文リスト
- Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - Defending Against Frequency-Based Attacks with Diffusion Models [0.23020018305241333]
拡散モデルは、画素単位の逆方向の摂動に対処するだけでなく、非逆方向のデータシフトに対処する上でも非常に有効であることが証明されている。
本研究は,低周波領域から高周波領域への多彩な歪みパターンの取り扱いの有効性を明らかにする。
論文 参考訳(メタデータ) (2025-04-15T09:57:17Z) - AdvAD: Exploring Non-Parametric Diffusion for Imperceptible Adversarial Attacks [24.401789411246874]
知覚不能な敵攻撃は、入力データに知覚不能な摂動を加えることでDNNを騙すことを目的としている。
従来手法では、特定の設計された知覚に基づく損失や生成モデルの能力と共通の攻撃パラダイムを統合することにより、攻撃の非受容性を改善することが一般的であった。
本稿では、既存の攻撃パラダイムとは異なる新しいモデリングフレームワークAdvAD(Adversarial Attacks in Diffusion)を提案する。
論文 参考訳(メタデータ) (2025-03-12T07:22:39Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Carefully Blending Adversarial Training, Purification, and Aggregation Improves Adversarial Robustness [1.2289361708127877]
CARSOは、防御のために考案された適応的なエンドツーエンドのホワイトボックス攻撃から自身を守ることができる。
提案手法は,Cifar-10,Cifar-100,TinyImageNet-200の最先端技術により改善されている。
論文 参考訳(メタデータ) (2023-05-25T09:04:31Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。