論文の概要: Radioactive Watermarks in Diffusion and Autoregressive Image Generative Models
- arxiv url: http://arxiv.org/abs/2506.23731v1
- Date: Mon, 30 Jun 2025 11:08:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.031096
- Title: Radioactive Watermarks in Diffusion and Autoregressive Image Generative Models
- Title(参考訳): 拡散・自己回帰画像生成モデルにおける放射能透かし
- Authors: Michel Meintz, Jan Dubiński, Franziska Boenisch, Adam Dziedzic,
- Abstract要約: 拡散モデル(DM)と画像自己回帰モデル(IAR)により生成された画像中の透かしの放射能を解析する。
IARと放射能を考慮した最初の透かし法を提案する。
- 参考スコア(独自算出の注目度): 4.303412065407284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image generative models have become increasingly popular, but training them requires large datasets that are costly to collect and curate. To circumvent these costs, some parties may exploit existing models by using the generated images as training data for their own models. In general, watermarking is a valuable tool for detecting unauthorized use of generated images. However, when these images are used to train a new model, watermarking can only enable detection if the watermark persists through training and remains identifiable in the outputs of the newly trained model - a property known as radioactivity. We analyze the radioactivity of watermarks in images generated by diffusion models (DMs) and image autoregressive models (IARs). We find that existing watermarking methods for DMs fail to retain radioactivity, as watermarks are either erased during encoding into the latent space or lost in the noising-denoising process (during the training in the latent space). Meanwhile, despite IARs having recently surpassed DMs in image generation quality and efficiency, no radioactive watermarking methods have been proposed for them. To overcome this limitation, we propose the first watermarking method tailored for IARs and with radioactivity in mind - drawing inspiration from techniques in large language models (LLMs), which share IARs' autoregressive paradigm. Our extensive experimental evaluation highlights our method's effectiveness in preserving radioactivity within IARs, enabling robust provenance tracking, and preventing unauthorized use of their generated images.
- Abstract(参考訳): 画像生成モデルはますます人気を博しているが、それらを訓練するには、収集とキュレートに費用がかかる大規模なデータセットが必要である。
これらのコストを回避するために、生成されたイメージを自身のモデルのトレーニングデータとして使用することで、既存のモデルを活用できる。
一般に、透かしは、生成した画像の不正使用を検出する貴重なツールである。
しかしながら、これらの画像が新しいモデルをトレーニングするために使用される場合、透かしは、トレーニングを通じて透かしが持続し、新しく訓練されたモデルの出力(放射能として知られる性質)で識別可能なままである場合にのみ検出できる。
拡散モデル(DM)と画像自己回帰モデル(IAR)により生成された画像中の透かしの放射能を解析する。
DMの既存の透かし方式は、潜伏空間へのエンコーディング中に消毒されるか、ノイズ発生過程(潜伏空間でのトレーニング中)で失われたため、放射能を維持できない。
一方、IARは画像生成の品質と効率が最近DMを上回ったにもかかわらず、放射能透かし法は提案されていない。
この制限を克服するために、IARの自己回帰パラダイムを共有する大規模言語モデル(LLM)の技術からインスピレーションを得た、IARと放射能を念頭に置いて、最初の透かし手法を提案する。
広範にわたる実験的評価は、IAR内の放射能の保存、ロバストなプロビタンス追跡の実現、生成した画像の不正使用防止における我々の方法の有効性を強調した。
関連論文リスト
- Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - Can LLM Watermarks Robustly Prevent Unauthorized Knowledge Distillation? [75.99961894619986]
本稿では,学生モデルが知識蒸留により,透かしの継承を回避しつつ,教師モデルの能力を獲得することができるかどうかを考察する。
本稿では,未ターゲットおよび目標とするトレーニングデータパラフレージング(UP,TP)による蒸留前除去と,推論時透かし中和(WN)による蒸留後除去の2つのカテゴリを提案する。
論文 参考訳(メタデータ) (2025-02-17T09:34:19Z) - Exploiting Watermark-Based Defense Mechanisms in Text-to-Image Diffusion Models for Unauthorized Data Usage [14.985938758090763]
安定拡散のようなテキストと画像の拡散モデルは、高品質な画像を生成するのに例外的な可能性を示している。
近年の研究では、これらのモデルのトレーニングに不正データを使用することが懸念されており、知的財産権侵害やプライバシー侵害につながる可能性がある。
本稿では、拡散過程を利用して保護された入力に対して制御された画像を生成するRATTANを提案する。
論文 参考訳(メタデータ) (2024-11-22T22:28:19Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。