論文の概要: Unified High-binding Watermark for Unconditional Image Generation Models
- arxiv url: http://arxiv.org/abs/2310.09479v1
- Date: Sat, 14 Oct 2023 03:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 20:12:01.113392
- Title: Unified High-binding Watermark for Unconditional Image Generation Models
- Title(参考訳): 非条件画像生成モデルのための統一高結合透かし
- Authors: Ruinan Ma, Yu-an Tan, Shangbo Wu, Tian Chen, Yajie Wang, Yuanzhang Li
- Abstract要約: 攻撃者はターゲットモデルの出力画像を盗み、トレーニングデータの一部として使用して、プライベート代理UIGモデルをトレーニングすることができる。
高結合効果を有する2段階統一透かし検証機構を提案する。
実験では、ほぼゼロの偽陽性率で検証作業を完了できることを示した。
- 参考スコア(独自算出の注目度): 7.4037644261198885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning techniques have implemented many unconditional image generation
(UIG) models, such as GAN, Diffusion model, etc. The extremely realistic images
(also known as AI-Generated Content, AIGC for short) produced by these models
bring urgent needs for intellectual property protection such as data
traceability and copyright certification. An attacker can steal the output
images of the target model and use them as part of the training data to train a
private surrogate UIG model. The implementation mechanisms of UIG models are
diverse and complex, and there is no unified and effective protection and
verification method at present. To address these issues, we propose a two-stage
unified watermark verification mechanism with high-binding effects for such
models. In the first stage, we use an encoder to invisibly write the watermark
image into the output images of the original AIGC tool, and reversely extract
the watermark image through the corresponding decoder. In the second stage, we
design the decoder fine-tuning process, and the fine-tuned decoder can make
correct judgments on whether the suspicious model steals the original AIGC tool
data. Experiments demonstrate our method can complete the verification work
with almost zero false positive rate under the condition of only using the
model output images. Moreover, the proposed method can achieve data steal
verification across different types of UIG models, which further increases the
practicality of the method.
- Abstract(参考訳): ディープラーニング技術は、GANや拡散モデルなど、多くの無条件画像生成(UIG)モデルを実装している。
これらのモデルによって生成された非常に現実的な画像(AI-Generated Content、略してAIGC)は、データトレーサビリティや著作権認定のような知的財産権保護に対する緊急の要求をもたらす。
攻撃者はターゲットモデルの出力画像を盗み、トレーニングデータの一部として使用して、プライベート代理UIGモデルをトレーニングすることができる。
UIGモデルの実装メカニズムは多様で複雑であり、現在、統一的で効果的な保護と検証方法が存在しない。
そこで本研究では,このようなモデルに対して高い拘束力を持つ2段階の統一透かし検証機構を提案する。
第1段階では、エンコーダを用いて、元のAIGCツールの出力画像に透かし画像を書き込むとともに、対応する復号器を介して透かし画像の逆抽出を行う。
第2段階ではデコーダの微調整プロセスを設計し、微調整デコーダは疑わしいモデルが元のAIGCツールデータを盗むかどうかを正確に判断することができる。
実験では,モデル出力画像のみを用いることで,ほぼゼロの偽陽性率で検証作業を完了できることを示した。
さらに,提案手法は,異なるタイプのUIGモデル間でデータステルス検証を実現することができるため,本手法の実用性はさらに向上する。
関連論文リスト
- Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - Invisible Watermarking for Audio Generation Diffusion Models [11.901028740065662]
本稿では,メル-スペクトログラムで学習した音声拡散モデルに適用した最初の透かし手法を提案する。
我々のモデルは、良質な音声生成だけでなく、モデル検証のための目に見えない透かしトリガー機構も備えている。
論文 参考訳(メタデータ) (2023-09-22T20:10:46Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion
Models [85.52369122266549]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Securing Deep Generative Models with Universal Adversarial Signature [69.51685424016055]
深い生成モデルは、その潜在的な誤用のために社会に脅威をもたらす。
本稿では,任意の事前学習型生成モデルに普遍的逆数シグネチャを注入することを提案する。
提案手法は, FFHQ と ImageNet のデータセット上で, 様々な最先端生成モデルを用いて検証する。
論文 参考訳(メタデータ) (2023-05-25T17:59:01Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Generating Image Adversarial Examples by Embedding Digital Watermarks [38.93689142953098]
本稿では,DNN(Deep Neural Network, ディープ・ニューラル・ネットワーク)モデルに対する画像逆転例を生成する,新しいデジタル透かしに基づく手法を提案する。
ホスト画像と透かし画像を選択するための効率的な機構を考案し、改良された離散ウェーブレット変換(DWT)に基づく透かしアルゴリズムを利用する。
我々のスキームは、CIFAR-10データセット上の各画像に対する攻撃を完了する平均1.17秒で、多数の敵例を効率的に生成することができる。
論文 参考訳(メタデータ) (2020-08-14T09:03:26Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。