論文の概要: What can Discriminator do? Towards Box-free Ownership Verification of
Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2307.15860v1
- Date: Sat, 29 Jul 2023 01:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 19:05:38.151198
- Title: What can Discriminator do? Towards Box-free Ownership Verification of
Generative Adversarial Network
- Title(参考訳): 差別者は何ができるか?
生成型adversarial networkのボックスフリーオーナシップ検証に向けて
- Authors: Ziheng Huang, Boheng Li, Yan Cai, Run Wang, Shangwei Guo, Liming Fang,
Jing Chen, Lina Wang
- Abstract要約: Generative Adversarial Network (GAN)とその変種は、画像合成において前例のない成功を収めた。
本稿では,入力を選択せずに,出力のみをチェックしてオーナシップ検証を行う,新たなIP保護方式を提案する。
提案手法は,一般的な入力ベース除去攻撃に対して免疫性を示し,既存の攻撃に対して堅牢性を示した。
- 参考スコア(独自算出の注目度): 20.638830795282402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent decades, Generative Adversarial Network (GAN) and its variants have
achieved unprecedented success in image synthesis. However, well-trained GANs
are under the threat of illegal steal or leakage. The prior studies on remote
ownership verification assume a black-box setting where the defender can query
the suspicious model with specific inputs, which we identify is not enough for
generation tasks. To this end, in this paper, we propose a novel IP protection
scheme for GANs where ownership verification can be done by checking outputs
only, without choosing the inputs (i.e., box-free setting). Specifically, we
make use of the unexploited potential of the discriminator to learn a
hypersphere that captures the unique distribution learned by the paired
generator. Extensive evaluations on two popular GAN tasks and more than 10 GAN
architectures demonstrate our proposed scheme to effectively verify the
ownership. Our proposed scheme shown to be immune to popular input-based
removal attacks and robust against other existing attacks. The source code and
models are available at
https://github.com/AbstractTeen/gan_ownership_verification
- Abstract(参考訳): 近年、GAN(Generative Adversarial Network)とその変種は画像合成において前例のない成功を収めている。
しかし、十分に訓練されたGANは違法な盗難や漏洩の脅威にさらされている。
リモートオーナシップ検証に関する以前の研究では、ディフェンダーが疑わしいモデルを特定の入力でクエリできるブラックボックス設定を想定しています。
そこで本稿では,入力(ボックスフリー設定)を選択せずに,出力のみをチェックしてオーナシップの検証を行う,GANのための新しいIP保護方式を提案する。
具体的には、識別器の未経験のポテンシャルを利用して、ペア生成器によって学習された一意な分布をキャプチャする超球面を学習する。
2つの一般的なGANタスクと10以上のGANアーキテクチャの広範な評価は、オーナシップを効果的に検証するための提案手法を実証する。
提案手法は,一般的な入力ベース削除攻撃に免疫があり,他の攻撃に対して頑健であることを示す。
ソースコードとモデルはhttps://github.com/abstractteen/gan_holdership_verificationで入手できる。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Black-Box Training Data Identification in GANs via Detector Networks [2.4554686192257424]
訓練されたGANへのアクセスと、基礎となる分布からの新鮮なサンプルが、攻撃者が与えられたポイントがGANのトレーニングデータのメンバーであるかどうかを効率的に識別できるかどうかを調査する。
これは、著作権のあるデータがGANのトレーニングに使用されたかどうかをユーザが判断したいという著作権に関する理由と、トレーニングセットのメンバシップを検出する能力がメンバシップ推論アタックとして知られているデータプライバシに関する理由の両方に興味深い。
ブラックボックス設定におけるGANに対するメンバーシップ推論攻撃のスイートを導入し、我々の攻撃を評価する。
論文 参考訳(メタデータ) (2023-10-18T15:53:20Z) - Deep Reinforcement Learning based Evasion Generative Adversarial Network
for Botnet Detection [7.467089417060047]
機械学習に基づくボットネット検出器は、敵の回避攻撃の潜在的な標的である。
いくつかの研究は、ジェネレーティブ・逆境ネット(GAN)から生成されたサンプルを使って、ボットネット検出器を敵の回避を認識するのに役立てるために、逆境訓練を採用している。
本稿では, 深部強化学習(DRL)を利用した新しいGANモデルを提案し, セマンティック・アウェアネス・サンプルの探索と検出の強化を行う。
論文 参考訳(メタデータ) (2022-10-06T11:54:34Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。