論文の概要: PTW: Pivotal Tuning Watermarking for Pre-Trained Image Generators
- arxiv url: http://arxiv.org/abs/2304.07361v1
- Date: Fri, 14 Apr 2023 19:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 19:31:21.420043
- Title: PTW: Pivotal Tuning Watermarking for Pre-Trained Image Generators
- Title(参考訳): PTW:Pivotal Tuning Watermarking for Pre-Trained Image Generators
- Authors: Nils Lukas, Florian Kerschbaum
- Abstract要約: 本稿では,事前学習した発電機の透かし手法であるPivotal Tuning Watermarking (PTW)を提案する。
PTWは、ジェネレータの画質を良く保ちながら、既存の方法よりも長いコードを埋め込むことができる。
我々は,頑丈さと非検出性の厳密なゲームベース定義を提案し,適応的なホワイトボックス攻撃に対してウォーターマーキングが堅牢でないことを明らかにした。
- 参考スコア(独自算出の注目度): 33.82164201455115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfakes refer to content synthesized using deep generators, which, when
\emph{misused}, have the potential to erode trust in digital media.
Synthesizing high-quality deepfakes requires access to large and complex
generators only few entities can train and provide. The threat are malicious
users that exploit access to the provided model and generate harmful deepfakes
without risking detection. Watermarking makes deepfakes detectable by embedding
an identifiable code into the generator that is later extractable from its
generated images. We propose Pivotal Tuning Watermarking (PTW), a method for
watermarking pre-trained generators (i) three orders of magnitude faster than
watermarking from scratch and (ii) without the need for any training data. We
improve existing watermarking methods and scale to generators $4 \times$ larger
than related work. PTW can embed longer codes than existing methods while
better preserving the generator's image quality. We propose rigorous,
game-based definitions for robustness and undetectability and our study reveals
that watermarking is not robust against an adaptive white-box attacker who has
control over the generator's parameters. We propose an adaptive attack that can
successfully remove any watermarking with access to only $200$ non-watermarked
images. Our work challenges the trustworthiness of watermarking for deepfake
detection when the parameters of a generator are available.
- Abstract(参考訳): ディープフェイク(Deepfakes)とは、ディープジェネレータを用いて合成されたコンテンツを指す用語で、emph{misused} がデジタルメディアにおける信頼を損なう可能性がある。
高品質なディープフェイクを合成するには、大規模で複雑なジェネレータにアクセスする必要がある。
この脅威は、提供されたモデルへのアクセスを利用して、検出を危険にさらすことなく有害なディープフェイクを生成する悪意のあるユーザーである。
ウォーターマーキングは、識別可能なコードをジェネレータに埋め込むことでディープフェイクの検出を可能にし、後に生成された画像から抽出する。
我々は,事前学習済み発電機の透かし法であるptw(pivotal tuning watermarking)を提案する。
(一)スクラッチやスクラッチの透かしより三桁速いこと
(ii) トレーニングデータを必要としない。
我々は既存の透かし法を改良し、関連する作業よりも4 \times$大きいジェネレータにスケールする。
PTWは、ジェネレータの画質を良く保ちながら、既存の方法よりも長いコードを埋め込むことができる。
本研究は, 強靭性と非検出性に関する厳密なゲームベース定義を提案し, ジェネレータのパラメータを制御できる適応型ホワイトボックス攻撃に対して, 透かしが堅牢でないことを示す。
非透かし画像に対してわずか200ドルしかアクセスできない透かしをうまく除去できる適応攻撃を提案する。
我々の研究は、発電機のパラメータが利用できる場合、ディープフェイク検出のための透かしの信頼性に挑戦する。
関連論文リスト
- On the Learnability of Watermarks for Language Models [80.97358663708592]
言語モデルが透かし付きテキストを生成するために直接学習できるかどうかを問う。
本稿では,教師モデルとして振舞う学生モデルを訓練する透かし蒸留法を提案する。
モデルは、高い検出性で透かし付きテキストを生成することができる。
論文 参考訳(メタデータ) (2023-12-07T17:41:44Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z) - Supervised GAN Watermarking for Intellectual Property Protection [33.827150843939094]
本稿では,GAN(Generative Adversarial Networks)のための透かし手法を提案する。
目的は、GANモデルで生成された画像が見えない透かし(署名)を含むように、GANモデルに透かしを付けることである。
その結果,本手法は生成画像内に見えない透かしを効果的に埋め込むことができることがわかった。
論文 参考訳(メタデータ) (2022-09-07T20:52:05Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z) - Watermark Faker: Towards Forgery of Digital Image Watermarking [10.14145437847397]
我々は, 生成的逆学習を用いて, デジタル画像ウォーターマーク・フェイカーの開発を初めて試みる。
提案手法は,空間領域と周波数領域の両方において,デジタル画像透かしを効果的にクラックできることを示す。
論文 参考訳(メタデータ) (2021-03-23T12:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。