論文の概要: Generative Autoencoders as Watermark Attackers: Analyses of
Vulnerabilities and Threats
- arxiv url: http://arxiv.org/abs/2306.01953v1
- Date: Fri, 2 Jun 2023 23:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 21:14:05.118461
- Title: Generative Autoencoders as Watermark Attackers: Analyses of
Vulnerabilities and Threats
- Title(参考訳): ウォーターマーク攻撃者としてのジェネレーティブオートエンコーダ:脆弱性と脅威の分析
- Authors: Xuandong Zhao, Kexun Zhang, Yu-Xiang Wang, Lei Li
- Abstract要約: Invisibleの透かしは、所有者が検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
また、画像、特にAIモデルによる画像の誤使用を防ぐ。
視覚的品質を損なうことなく透かしを除去するためには、画像に不可欠な情報を保持しながら消さなければならない。
生成型オートエンコーダを用いて、見えない透かしを除去し、VAEと拡散を用いてテストするフレームワークを提案する。
- 参考スコア(独自算出の注目度): 33.298453122688905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Invisible watermarks safeguard images' copyrights by embedding hidden
messages detectable by owners. It also prevents people from misusing images,
especially those generated by AI models. Malicious adversaries can violate
these rights by removing the watermarks. In order to remove watermarks without
damaging the visual quality, the adversary needs to erase them while retaining
the essential information in the image. This is analogous to the encoding and
decoding process of generative autoencoders, especially variational
autoencoders (VAEs) and diffusion models. We propose a framework using
generative autoencoders to remove invisible watermarks and test it using VAEs
and diffusions. Our results reveal that, even without specific training,
off-the-shelf Stable Diffusion effectively removes most watermarks, surpassing
all current attackers. The result underscores the vulnerabilities in existing
watermarking schemes and calls for more robust methods for copyright
protection.
- Abstract(参考訳): Invisibleの透かしは、所有者が検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
また、画像、特にAIモデルによる画像の誤使用を防ぐ。
悪意のある敵は、透かしを取り除いてこれらの権利を侵害することができる。
視覚的品質を損なうことなく透かしを除去するためには、画像に不可欠な情報を保持しながら消さなければならない。
これは、生成オートエンコーダの符号化および復号過程、特に変動オートエンコーダ(VAE)と拡散モデルに類似している。
生成型オートエンコーダを用いて、見えない透かしを除去し、VAEと拡散を用いてテストするフレームワークを提案する。
その結果, 特定の訓練がなくても, 既成の安定拡散は効果的にほとんどの透かしを除去し, 現在の攻撃者を上回ることがわかった。
その結果、既存の透かし方式の脆弱性を強調し、著作権保護のためのより堅牢な方法を求めている。
関連論文リスト
- Invisible Watermarks: Attacks and Robustness [0.3495246564946556]
本稿では,攻撃時の画像品質の劣化を最小限に抑えるとともに,透かしの堅牢性を向上する新しい手法を提案する。
そこで本研究では,デコード中,一方の透かしのモダリティを保ちながら他方を完全に除去する独自の透かし除去ネットワークを提案する。
評価の結果,1)他のモダリティを復号する際の透かしモダリティの1つを保持するための透かし除去モデルの実装は,ベースライン性能において若干改善され,2)LBAは画像全体の均一なぼかしに比べて画像の劣化を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-12-17T03:50:13Z) - Black-Box Forgery Attacks on Semantic Watermarks for Diffusion Models [16.57738116313139]
攻撃者は、異なる潜在空間やアーキテクチャであっても、無関係なモデルを利用して、強力で現実的な偽造攻撃を行うことができることを示す。
第1は、対象の透かしを実画像に印字し、無関係のLCMにおいて任意の画像の潜在表現を操作する。
第2の攻撃は、透かし画像を反転させて任意のプロンプトで再生することにより、目標の透かしで新たな画像を生成する。
論文 参考訳(メタデータ) (2024-12-04T12:57:17Z) - An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - UnMarker: A Universal Attack on Defensive Image Watermarking [4.013156524547072]
防衛的な透かしに対する最初の実践的普遍的な攻撃であるUnMarkerを紹介します。
UnMarkerは検出器のフィードバックを必要とせず、透かしスキームや類似したモデルに関する非現実的な知識も必要とせず、先進的な復調パイプラインも必要としない。
SOTAスキームに対する評価は、UnMarkerの有効性を証明する。
論文 参考訳(メタデータ) (2024-05-14T07:05:18Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。