論文の概要: PTW: Pivotal Tuning Watermarking for Pre-Trained Image Generators
- arxiv url: http://arxiv.org/abs/2304.07361v3
- Date: Tue, 7 Nov 2023 20:15:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 20:00:36.233112
- Title: PTW: Pivotal Tuning Watermarking for Pre-Trained Image Generators
- Title(参考訳): PTW:Pivotal Tuning Watermarking for Pre-Trained Image Generators
- Authors: Nils Lukas, Florian Kerschbaum
- Abstract要約: 本稿では,事前学習した発電機の透かし手法であるPivotal Tuning Watermarking (PTW)を提案する。
PTWは、ジェネレータの画質を良く保ちながら、既存の方法よりも長いコードを埋め込むことができる。
本研究では,厳密なゲームベースによる堅牢性と非検出性の定義を提案し,適応型ホワイトボックス攻撃に対してウォーターマーキングが堅牢でないことを示す。
- 参考スコア(独自算出の注目度): 42.0915430715226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfakes refer to content synthesized using deep generators, which, when
misused, have the potential to erode trust in digital media. Synthesizing
high-quality deepfakes requires access to large and complex generators only a
few entities can train and provide. The threat is malicious users that exploit
access to the provided model and generate harmful deepfakes without risking
detection. Watermarking makes deepfakes detectable by embedding an identifiable
code into the generator that is later extractable from its generated images. We
propose Pivotal Tuning Watermarking (PTW), a method for watermarking
pre-trained generators (i) three orders of magnitude faster than watermarking
from scratch and (ii) without the need for any training data. We improve
existing watermarking methods and scale to generators $4 \times$ larger than
related work. PTW can embed longer codes than existing methods while better
preserving the generator's image quality. We propose rigorous, game-based
definitions for robustness and undetectability, and our study reveals that
watermarking is not robust against an adaptive white-box attacker who controls
the generator's parameters. We propose an adaptive attack that can successfully
remove any watermarking with access to only 200 non-watermarked images. Our
work challenges the trustworthiness of watermarking for deepfake detection when
the parameters of a generator are available. The source code to reproduce our
experiments is available at https://github.com/nilslukas/gan-watermark.
- Abstract(参考訳): ディープフェイク(Deepfakes)とは、デジタルメディアにおける信頼を損なう可能性があるディープジェネレータを用いて合成されたコンテンツを指す。
高品質なディープフェイクの合成には、大規模で複雑なジェネレータへのアクセスが必要である。
この脅威は、提供されたモデルへのアクセスを利用して、検出を危険にさらすことなく有害なディープフェイクを生成する悪意のあるユーザーである。
ウォーターマーキングは、識別可能なコードをジェネレータに埋め込むことでディープフェイクの検出を可能にし、後に生成された画像から抽出する。
我々は,事前学習済み発電機の透かし法であるptw(pivotal tuning watermarking)を提案する。
(一)スクラッチやスクラッチの透かしより三桁速いこと
(ii) トレーニングデータを必要としない。
我々は既存の透かし法を改良し、関連する作業よりも4 \times$大きいジェネレータにスケールする。
PTWは、ジェネレータの画質を良く保ちながら、既存の方法よりも長いコードを埋め込むことができる。
本研究は, 強靭性および非検出性に関する厳密なゲームベース定義を提案し, ジェネレータのパラメータを制御する適応型ホワイトボックス攻撃に対して, 透かしが堅牢でないことを示す。
本研究では,200個の非透かし画像にのみアクセス可能な適応攻撃を提案する。
我々の研究は、発電機のパラメータが利用できる場合、ディープフェイク検出のための透かしの信頼性に挑戦する。
実験を再現するソースコードはhttps://github.com/nilslukas/gan-watermark.comで閲覧できます。
関連論文リスト
- On the Learnability of Watermarks for Language Models [80.97358663708592]
言語モデルが透かし付きテキストを生成するために直接学習できるかどうかを問う。
本稿では,教師モデルとして振舞う学生モデルを訓練する透かし蒸留法を提案する。
モデルは、高い検出性で透かし付きテキストを生成することができる。
論文 参考訳(メタデータ) (2023-12-07T17:41:44Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z) - Supervised GAN Watermarking for Intellectual Property Protection [33.827150843939094]
本稿では,GAN(Generative Adversarial Networks)のための透かし手法を提案する。
目的は、GANモデルで生成された画像が見えない透かし(署名)を含むように、GANモデルに透かしを付けることである。
その結果,本手法は生成画像内に見えない透かしを効果的に埋め込むことができることがわかった。
論文 参考訳(メタデータ) (2022-09-07T20:52:05Z) - A Robust Document Image Watermarking Scheme using Deep Neural Network [10.938878993948517]
本稿では,ディープニューラルネットワークを用いたエンドツーエンドの文書画像透かし方式を提案する。
特に、エンコーダとデコーダは、透かしを埋め込んで抽出するように設計されている。
文字への埋め込み変更を制限するために、テキストセンシティブな損失関数が設計されている。
論文 参考訳(メタデータ) (2022-02-26T05:28:52Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z) - Watermark Faker: Towards Forgery of Digital Image Watermarking [10.14145437847397]
我々は, 生成的逆学習を用いて, デジタル画像ウォーターマーク・フェイカーの開発を初めて試みる。
提案手法は,空間領域と周波数領域の両方において,デジタル画像透かしを効果的にクラックできることを示す。
論文 参考訳(メタデータ) (2021-03-23T12:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。