論文の概要: Securing Deep Generative Models with Universal Adversarial Signature
- arxiv url: http://arxiv.org/abs/2305.16310v1
- Date: Thu, 25 May 2023 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 13:15:00.285898
- Title: Securing Deep Generative Models with Universal Adversarial Signature
- Title(参考訳): ユニバーサル・ディバイザ・シグナチャによる深部生成モデルの確保
- Authors: Yu Zeng, Mo Zhou, Yuan Xue, Vishal M. Patel
- Abstract要約: 深い生成モデルは、その潜在的な誤用のために社会に脅威をもたらす。
本稿では,任意の事前学習型生成モデルに普遍的逆数シグネチャを注入することを提案する。
提案手法は, FFHQ と ImageNet のデータセット上で, 様々な最先端生成モデルを用いて検証する。
- 参考スコア(独自算出の注目度): 69.51685424016055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in deep generative models have led to the development of
methods capable of synthesizing high-quality, realistic images. These models
pose threats to society due to their potential misuse. Prior research attempted
to mitigate these threats by detecting generated images, but the varying traces
left by different generative models make it challenging to create a universal
detector capable of generalizing to new, unseen generative models. In this
paper, we propose to inject a universal adversarial signature into an arbitrary
pre-trained generative model, in order to make its generated contents more
detectable and traceable. First, the imperceptible optimal signature for each
image can be found by a signature injector through adversarial training.
Subsequently, the signature can be incorporated into an arbitrary generator by
fine-tuning it with the images processed by the signature injector. In this
way, the detector corresponding to the signature can be reused for any
fine-tuned generator for tracking the generator identity. The proposed method
is validated on the FFHQ and ImageNet datasets with various state-of-the-art
generative models, consistently showing a promising detection rate. Code will
be made publicly available at \url{https://github.com/zengxianyu/genwm}.
- Abstract(参考訳): 近年の深層生成モデルの進歩により、高品質でリアルな画像を合成できる手法が開発されている。
これらのモデルは、潜在的な誤用のために社会に脅威をもたらす。
以前の研究は、生成された画像を検出することでこれらの脅威を軽減しようとしたが、異なる生成モデルが残した様々な痕跡は、新しい未知の生成モデルに一般化できる普遍的検出器を作ることを困難にしている。
本稿では,任意の事前学習された生成モデルに普遍的逆数シグネチャを注入して,生成したコンテンツをより検出し,追跡できるようにする。
まず、各画像に対する不可避な最適シグネチャは、敵対的なトレーニングを通じてシグネチャインジェクタによって見つけることができる。
その後、シグネチャインジェクタによって処理された画像で微調整することで、シグネチャを任意のジェネレータに組み込むことができる。
このようにして、署名に対応する検出器は、ジェネレータのアイデンティティを追跡するための微調整されたジェネレータに再利用することができる。
提案手法はffhqおよびimagenetデータセット上で様々な最先端生成モデルを用いて検証され,常に有望な検出率を示す。
コードは \url{https://github.com/zengxianyu/genwm} で公開される。
関連論文リスト
- DeCLIP: Decoding CLIP representations for deepfake localization [4.04729645587678]
DeCLIPは、局所的な操作を検出するために、大規模な事前学習機能を活用する最初の試みである。
合理的に大きな畳み込みデコーダと組み合わせることで、事前学習された自己教師付き表現がローカライズを行うことができることを示す。
従来の研究とは異なり、我々の手法は潜在拡散モデルの挑戦的な場合において局所化を行うことができる。
論文 参考訳(メタデータ) (2024-09-12T17:59:08Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Online Detection of AI-Generated Images [17.30253784649635]
この設定における一般化、Nモデルのトレーニング、および次の(N+k)上でのテストについて研究する。
我々は、この手法を画素予測に拡張し、自動的に生成されたインペイントデータを用いて、強い性能を示す。
また、商用モデルが自動データ生成に利用できないような設定では、画素検出器が合成画像全体に対してのみ訓練可能であるかどうかを評価する。
論文 参考訳(メタデータ) (2023-10-23T17:53:14Z) - Unified High-binding Watermark for Unconditional Image Generation Models [7.4037644261198885]
攻撃者はターゲットモデルの出力画像を盗み、トレーニングデータの一部として使用して、プライベート代理UIGモデルをトレーニングすることができる。
高結合効果を有する2段階統一透かし検証機構を提案する。
実験では、ほぼゼロの偽陽性率で検証作業を完了できることを示した。
論文 参考訳(メタデータ) (2023-10-14T03:26:21Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - FedForgery: Generalized Face Forgery Detection with Residual Federated
Learning [87.746829550726]
既存の顔偽造検出方法は、取得した共有データや集中データを直接利用して訓練を行う。
顔偽造検出のための一般化された残留フェデレーション学習(FedForgery)を提案する。
顔偽造検出データセットを公開して行った実験は、提案したFedForgeryの優れた性能を証明している。
論文 参考訳(メタデータ) (2022-10-18T03:32:18Z) - Self-supervised GAN Detector [10.963740942220168]
生成モデルは 不正や 破壊 偽ニュースなど 悪意のある目的で悪用される
トレーニング設定外の未確認画像を識別する新しいフレームワークを提案する。
提案手法は,GAN画像の高品質な人工指紋を再構成する人工指紋生成装置から構成する。
論文 参考訳(メタデータ) (2021-11-12T06:19:04Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。