論文の概要: Robust Retraining-free GAN Fingerprinting via Personalized Normalization
- arxiv url: http://arxiv.org/abs/2311.05478v1
- Date: Thu, 9 Nov 2023 16:09:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 14:37:39.498791
- Title: Robust Retraining-free GAN Fingerprinting via Personalized Normalization
- Title(参考訳): パーソナライズによるロバストリトレーニングフリーganフィンガープリント
- Authors: Jianwei Fei, Zhihua Xia, Benedetta Tondi, and Mauro Barni
- Abstract要約: 提案手法は,ParamGen Netsの入力を変更するだけで,異なる指紋をGAN内に埋め込むことができる。
モデルレベルの攻撃と画像レベルの攻撃の両方に対するロバスト性の観点から提案手法の性能は,最先端技術よりも優れている。
- 参考スコア(独自算出の注目度): 21.63902009635896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there has been significant growth in the commercial
applications of generative models, licensed and distributed by model developers
to users, who in turn use them to offer services. In this scenario, there is a
need to track and identify the responsible user in the presence of a violation
of the license agreement or any kind of malicious usage. Although there are
methods enabling Generative Adversarial Networks (GANs) to include invisible
watermarks in the images they produce, generating a model with a different
watermark, referred to as a fingerprint, for each user is time- and
resource-consuming due to the need to retrain the model to include the desired
fingerprint. In this paper, we propose a retraining-free GAN fingerprinting
method that allows model developers to easily generate model copies with the
same functionality but different fingerprints. The generator is modified by
inserting additional Personalized Normalization (PN) layers whose parameters
(scaling and bias) are generated by two dedicated shallow networks (ParamGen
Nets) taking the fingerprint as input. A watermark decoder is trained
simultaneously to extract the fingerprint from the generated images. The
proposed method can embed different fingerprints inside the GAN by just
changing the input of the ParamGen Nets and performing a feedforward pass,
without finetuning or retraining. The performance of the proposed method in
terms of robustness against both model-level and image-level attacks is also
superior to the state-of-the-art.
- Abstract(参考訳): 近年、モデル開発者がライセンスし、ユーザに配布する生成モデルの商業的応用において、大きな成長が見られ、それらを使用してサービスを提供している。
このシナリオでは、ライセンス契約違反や悪意のある使用法の存在下で、責任あるユーザを追跡し、識別する必要があります。
生成的敵ネットワーク(gan)が生成する画像に目に見えない透かしを含むことができる方法があるが、異なる透かしを持つモデルを生成する方法は指紋と呼ばれ、各ユーザが、望ましい指紋を含むようにモデルを再訓練する必要があるため、時間とリソースを消費する。
本稿では,モデル開発者が同じ機能を持つモデルコピーを,異なる指紋で簡単に生成できる,学習不要なGANフィンガープリント手法を提案する。
このジェネレータは、指紋を入力とする2つの専用浅層ネットワーク(ParamGen Nets)によってパラメータ(スケーリングとバイアス)が生成されるPN(Personalized Normalization)層を挿入することで変更される。
生成した画像から指紋を抽出するために、同時に透かしデコーダを訓練する。
提案手法では,paramgenネットの入力を変更してフィードフォワードパスを実行するだけで,微調整や再トレーニングをすることなく,gan内に異なる指紋を埋め込むことができる。
モデルレベルの攻撃と画像レベルの攻撃の両方に対するロバスト性の観点から,提案手法の性能は最先端の手法よりも優れている。
関連論文リスト
- How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - WOUAF: Weight Modulation for User Attribution and Fingerprinting in Text-to-Image Diffusion Models [32.29120988096214]
本稿では,生成画像に責任を負うモデルフィンガープリントの新たなアプローチを提案する。
提案手法は,ユーザ固有のデジタル指紋に基づいて生成モデルを修正し,ユーザへ遡ることができるコンテンツにユニークな識別子を印字する。
論文 参考訳(メタデータ) (2023-06-07T19:44:14Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Securing Deep Generative Models with Universal Adversarial Signature [69.51685424016055]
深い生成モデルは、その潜在的な誤用のために社会に脅威をもたらす。
本稿では,任意の事前学習型生成モデルに普遍的逆数シグネチャを注入することを提案する。
提案手法は, FFHQ と ImageNet のデータセット上で, 様々な最先端生成モデルを用いて検証する。
論文 参考訳(メタデータ) (2023-05-25T17:59:01Z) - Comparative analysis of segmentation and generative models for
fingerprint retrieval task [0.0]
指紋は、指が汚れたり、濡れたり、怪我したり、センサーが故障したりすると、品質が低下する。
本稿では,ジェネレーティブ(GAN)とモデルを用いた深層学習手法を提案する。
本研究は, GANネットワークよりも, u-net モデルの方が優れた性能を示した。
論文 参考訳(メタデータ) (2022-09-13T17:21:14Z) - FIGO: Enhanced Fingerprint Identification Approach Using GAN and One
Shot Learning Techniques [0.0]
本稿では,生成逆数ネットワークとワンショット学習技術に基づく指紋識別手法を提案する。
まず,低画質の指紋画像を,指紋強調層に直接画素を向けて高レベルの指紋画像に変換するPix2Pixモデルを提案する。
第2に,指紋識別プロセスにおいて,各指紋を他の指紋と区別するために,ワンショット学習アプローチを用いた完全自動指紋特徴抽出モデルを構築した。
論文 参考訳(メタデータ) (2022-08-11T02:45:42Z) - FDeblur-GAN: Fingerprint Deblurring using Generative Adversarial Network [22.146795282680667]
本稿では,cGAN(Productrative Adversarial Networks)とスタックGANのマルチステージフレームワークに基づく指紋除去モデルFDe-GANを提案する。
2つの補助的なサブネットワークをデブロアリングタスクのモデルに統合する。
我々は, 指紋データベースの95.18%の精度を, 汚れた指紋と地面の真実の指紋とをマッチングするために達成した。
論文 参考訳(メタデータ) (2021-06-21T18:37:20Z) - Fingerprinting Image-to-Image Generative Adversarial Networks [53.02510603622128]
Generative Adversarial Networks (GAN) は様々なアプリケーションシナリオで広く利用されている。
本稿では,信頼できる第三者に基づく画像間GANの知的保護のための新しい指紋認証方式を提案する。
論文 参考訳(メタデータ) (2021-06-19T06:25:10Z) - Learning to Disentangle GAN Fingerprint for Fake Image Attribution [25.140200292000046]
本稿では,GAN生成画像から指紋を遠ざけるためのGFD-Netを提案する。
指紋の安定性と識別性を保証するために,一連の制約が設けられている。
我々のGFD-Netは、クローズドワールドとオープンワールドの両方のテストにおいて、優れたフェイク画像帰属性能を達成している。
論文 参考訳(メタデータ) (2021-06-16T12:50:40Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。