論文の概要: A Stealthy and Robust Fingerprinting Scheme for Generative Models
- arxiv url: http://arxiv.org/abs/2106.11760v1
- Date: Sat, 19 Jun 2021 06:25:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 11:20:14.272246
- Title: A Stealthy and Robust Fingerprinting Scheme for Generative Models
- Title(参考訳): 生成モデルのためのステルスおよびロバストフィンガープリント方式
- Authors: Li Guanlin, Guo Shangwei, Wang Run, Xu Guowen, Zhang Tianwei
- Abstract要約: 本稿では,生成モデルの知的財産保護のための新しいフィンガープリント手法を提案する。
指紋の細粒化と細粒度分類を併用した新しいバックドア埋め込み手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel fingerprinting methodology for the Intellectual
Property protection of generative models. Prior solutions for discriminative
models usually adopt adversarial examples as the fingerprints, which give
anomalous inference behaviors and prediction results. Hence, these methods are
not stealthy and can be easily recognized by the adversary. Our approach
leverages the invisible backdoor technique to overcome the above limitation.
Specifically, we design verification samples, whose model outputs look normal
but can trigger a backdoor classifier to make abnormal predictions. We propose
a new backdoor embedding approach with Unique-Triplet Loss and fine-grained
categorization to enhance the effectiveness of our fingerprints. Extensive
evaluations show that this solution can outperform other strategies with higher
robustness, uniqueness and stealthiness for various GAN models.
- Abstract(参考訳): 本稿では,生成モデルの知的保護のための新しい指紋認証手法を提案する。
識別モデルに対する事前の解は、通常、逆の例を指紋として採用し、異常な推論行動と予測結果を与える。
したがって、これらの手法はステルス性がなく、敵に容易に認識できる。
我々のアプローチは、上記の制限を克服するために見えないバックドア技術を活用する。
具体的には、モデル出力が正常に見えるが、バックドア分類器をトリガーして異常な予測を行う検証サンプルを設計する。
指紋の精度を高めるために,トリップレット損失と細粒度分類を用いた新しいバックドア埋め込み手法を提案する。
広範囲な評価により、様々なGANモデルに対して、より堅牢性、独特性、ステルス性の高い他の戦略よりも優れていることが示されている。
関連論文リスト
- Ownership Protection of Generative Adversarial Networks [9.355840335132124]
GAN(Generative Adversarial Network)は画像合成において顕著な成功を収めている。
GANの知的財産を技術的に保護することは重要である。
本稿では,対象モデルの共通特性と盗難モデルに基づく新たな所有権保護手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:31:58Z) - Attributing Image Generative Models using Latent Fingerprints [33.037718660732544]
生成モデルにより、自然から取られたものと区別できないコンテンツの作成が可能になった。
リスク軽減戦略の1つは、指紋認証による生成モデルの属性付けである。
本稿では,指紋としての潜在意味論の活用について検討する。
論文 参考訳(メタデータ) (2023-04-17T00:13:10Z) - Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution [7.0159295162418385]
本稿では,GANの著作権保護対策の現状を概観する評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークなどの知的財産権保護手法は,広範囲のGANに好適であることが示唆された。
論文 参考訳(メタデータ) (2023-03-15T06:40:57Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Protecting Intellectual Property of Generative Adversarial Networks from
Ambiguity Attack [26.937702447957193]
フォトリアリスティック画像作成に広く用いられているGAN(Generative Adrial Networks)は完全に保護されていない。
本稿では,知的財産権(IPR)保護をGANに強制するために,ブラックボックスとホワイトボックスの両方で完全な保護フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:12:20Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z) - Autoencoding Generative Adversarial Networks [0.0]
本稿では,所定の潜在空間と与えられたサンプル空間とのマッピングを学習する4ネットワークモデルを提案する。
AEGAN技術は、トレーニング安定化、モード崩壊防止、実際のサンプル間の直接反転など、一般的なGANトレーニングにいくつかの改善を提供する。
論文 参考訳(メタデータ) (2020-04-11T19:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。