論文の概要: Protecting Intellectual Property of Generative Adversarial Networks from
Ambiguity Attack
- arxiv url: http://arxiv.org/abs/2102.04362v1
- Date: Mon, 8 Feb 2021 17:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 11:09:29.164096
- Title: Protecting Intellectual Property of Generative Adversarial Networks from
Ambiguity Attack
- Title(参考訳): 創発的敵網の知的特性をアンビジティ攻撃から保護する
- Authors: Ding Sheng Ong, Chee Seng Chan, Kam Woh Ng, Lixin Fan, Qiang Yang
- Abstract要約: フォトリアリスティック画像作成に広く用いられているGAN(Generative Adrial Networks)は完全に保護されていない。
本稿では,知的財産権(IPR)保護をGANに強制するために,ブラックボックスとホワイトボックスの両方で完全な保護フレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.937702447957193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ever since Machine Learning as a Service (MLaaS) emerges as a viable business
that utilizes deep learning models to generate lucrative revenue, Intellectual
Property Right (IPR) has become a major concern because these deep learning
models can easily be replicated, shared, and re-distributed by any unauthorized
third parties. To the best of our knowledge, one of the prominent deep learning
models - Generative Adversarial Networks (GANs) which has been widely used to
create photorealistic image are totally unprotected despite the existence of
pioneering IPR protection methodology for Convolutional Neural Networks (CNNs).
This paper therefore presents a complete protection framework in both black-box
and white-box settings to enforce IPR protection on GANs. Empirically, we show
that the proposed method does not compromise the original GANs performance
(i.e. image generation, image super-resolution, style transfer), and at the
same time, it is able to withstand both removal and ambiguity attacks against
embedded watermarks.
- Abstract(参考訳): 機械学習・アズ・ア・サービス(MLaaS)は、ディープラーニングモデルを利用して収益を生み出す実行可能なビジネスとして登場して以来、知的財産権(IPR)は、これらのディープラーニングモデルを簡単に複製、共有、再配布できるため、大きな関心事となっている。
我々の知る限り、フォトリアリスティックな画像を作成するために広く使われているGAN(Generative Adversarial Networks)は、畳み込みニューラルネットワーク(CNN)の先駆的なIPR保護手法が存在するにもかかわらず、完全に保護されていない。
そこで本稿では, ブラックボックスとホワイトボックスの両方において, IPR保護をGANに強制するための完全な保護フレームワークを提案する。
実験により,提案手法は元のGANの性能を損なわないことを示した。
画像生成、画像の超解像度、スタイル転送)と同時に、埋め込みウォーターマークに対する削除と曖昧性攻撃の両方に耐えることができる。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Protect-Your-IP: Scalable Source-Tracing and Attribution against Personalized Generation [19.250673262185767]
画像著作権のソーストレーシングと属性の統一的なアプローチを提案する。
本稿では,プロアクティブ戦略とパッシブ戦略を融合した革新的な透かし属性法を提案する。
オンラインで公開されている様々なセレブの肖像画シリーズを用いて実験を行った。
論文 参考訳(メタデータ) (2024-05-26T15:14:54Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - IPR-NeRF: Ownership Verification meets Neural Radiance Field [100.76162575686368]
本稿では,ブラックボックスとホワイトボックスの両方の設定において,NeRFモデルに対する包括的知的財産権(IP)保護フレームワークを提案する。
ブラックボックス設定では、拡散ベースの溶液を導入して、透かしを埋め込んで抽出する。
ホワイトボックス設定では、符号損失目標を適用して、指定されたデジタル署名をNeRFモデルの重みに埋め込む。
論文 参考訳(メタデータ) (2024-01-17T01:33:40Z) - Ownership Protection of Generative Adversarial Networks [9.355840335132124]
GAN(Generative Adversarial Network)は画像合成において顕著な成功を収めている。
GANの知的財産を技術的に保護することは重要である。
本稿では,対象モデルの共通特性と盗難モデルに基づく新たな所有権保護手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:31:58Z) - Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution [7.0159295162418385]
本稿では,GANの著作権保護対策の現状を概観する評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークなどの知的財産権保護手法は,広範囲のGANに好適であることが示唆された。
論文 参考訳(メタデータ) (2023-03-15T06:40:57Z) - An Embarrassingly Simple Approach for Intellectual Property Rights
Protection on Recurrent Neural Networks [11.580808497808341]
本稿では,リカレントニューラルネットワーク(RNN)における知的財産保護のための実践的アプローチを提案する。
キーを埋め込むためのRNNアーキテクチャの繰り返しの性質に類似したGatekeeperの概念を紹介します。
白箱と黒箱の両方の保護スキームにおける曖昧さと除去攻撃に対して,我々の保護スキームは堅牢かつ効果的である。
論文 参考訳(メタデータ) (2022-10-03T07:25:59Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fingerprinting Image-to-Image Generative Adversarial Networks [53.02510603622128]
Generative Adversarial Networks (GAN) は様々なアプリケーションシナリオで広く利用されている。
本稿では,信頼できる第三者に基づく画像間GANの知的保護のための新しい指紋認証方式を提案する。
論文 参考訳(メタデータ) (2021-06-19T06:25:10Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。