論文の概要: Unified High-binding Watermark for Unconditional Image Generation Models
- arxiv url: http://arxiv.org/abs/2310.09479v1
- Date: Sat, 14 Oct 2023 03:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 20:12:01.113392
- Title: Unified High-binding Watermark for Unconditional Image Generation Models
- Title(参考訳): 非条件画像生成モデルのための統一高結合透かし
- Authors: Ruinan Ma, Yu-an Tan, Shangbo Wu, Tian Chen, Yajie Wang, Yuanzhang Li
- Abstract要約: 攻撃者はターゲットモデルの出力画像を盗み、トレーニングデータの一部として使用して、プライベート代理UIGモデルをトレーニングすることができる。
高結合効果を有する2段階統一透かし検証機構を提案する。
実験では、ほぼゼロの偽陽性率で検証作業を完了できることを示した。
- 参考スコア(独自算出の注目度): 7.4037644261198885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning techniques have implemented many unconditional image generation
(UIG) models, such as GAN, Diffusion model, etc. The extremely realistic images
(also known as AI-Generated Content, AIGC for short) produced by these models
bring urgent needs for intellectual property protection such as data
traceability and copyright certification. An attacker can steal the output
images of the target model and use them as part of the training data to train a
private surrogate UIG model. The implementation mechanisms of UIG models are
diverse and complex, and there is no unified and effective protection and
verification method at present. To address these issues, we propose a two-stage
unified watermark verification mechanism with high-binding effects for such
models. In the first stage, we use an encoder to invisibly write the watermark
image into the output images of the original AIGC tool, and reversely extract
the watermark image through the corresponding decoder. In the second stage, we
design the decoder fine-tuning process, and the fine-tuned decoder can make
correct judgments on whether the suspicious model steals the original AIGC tool
data. Experiments demonstrate our method can complete the verification work
with almost zero false positive rate under the condition of only using the
model output images. Moreover, the proposed method can achieve data steal
verification across different types of UIG models, which further increases the
practicality of the method.
- Abstract(参考訳): ディープラーニング技術は、GANや拡散モデルなど、多くの無条件画像生成(UIG)モデルを実装している。
これらのモデルによって生成された非常に現実的な画像(AI-Generated Content、略してAIGC)は、データトレーサビリティや著作権認定のような知的財産権保護に対する緊急の要求をもたらす。
攻撃者はターゲットモデルの出力画像を盗み、トレーニングデータの一部として使用して、プライベート代理UIGモデルをトレーニングすることができる。
UIGモデルの実装メカニズムは多様で複雑であり、現在、統一的で効果的な保護と検証方法が存在しない。
そこで本研究では,このようなモデルに対して高い拘束力を持つ2段階の統一透かし検証機構を提案する。
第1段階では、エンコーダを用いて、元のAIGCツールの出力画像に透かし画像を書き込むとともに、対応する復号器を介して透かし画像の逆抽出を行う。
第2段階ではデコーダの微調整プロセスを設計し、微調整デコーダは疑わしいモデルが元のAIGCツールデータを盗むかどうかを正確に判断することができる。
実験では,モデル出力画像のみを用いることで,ほぼゼロの偽陽性率で検証作業を完了できることを示した。
さらに,提案手法は,異なるタイプのUIGモデル間でデータステルス検証を実現することができるため,本手法の実用性はさらに向上する。
関連論文リスト
- Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - A Watermark-Conditioned Diffusion Model for IP Protection [31.969286898467985]
拡散モデルにおけるコンテンツ著作権保護のための統一的な透かしフレームワークを提案する。
そこで我々はWaDiffと呼ばれるWadmark条件付き拡散モデルを提案する。
本手法は,検出タスクと所有者識別タスクの両方において有効かつ堅牢である。
論文 参考訳(メタデータ) (2024-03-16T11:08:15Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Securing Deep Generative Models with Universal Adversarial Signature [69.51685424016055]
深い生成モデルは、その潜在的な誤用のために社会に脅威をもたらす。
本稿では,任意の事前学習型生成モデルに普遍的逆数シグネチャを注入することを提案する。
提案手法は, FFHQ と ImageNet のデータセット上で, 様々な最先端生成モデルを用いて検証する。
論文 参考訳(メタデータ) (2023-05-25T17:59:01Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。