論文の概要: Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution
- arxiv url: http://arxiv.org/abs/2303.09272v1
- Date: Wed, 15 Mar 2023 06:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:42:23.420402
- Title: Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution
- Title(参考訳): 生成AIの著作権保護と説明責任:アタック、透かしおよび属性
- Authors: Haonan Zhong, Jiamin Chang, Ziyue Yang, Tingmin Wu, Pathum Chamikara
Mahawaga Arachchige, Chehara Pathmabandu, Minhui Xue
- Abstract要約: 本稿では,GANの著作権保護対策の現状を概観する評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークなどの知的財産権保護手法は,広範囲のGANに好適であることが示唆された。
- 参考スコア(独自算出の注目度): 7.0159295162418385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (e.g., Generative Adversarial Networks - GANs) has become
increasingly popular in recent years. However, Generative AI introduces
significant concerns regarding the protection of Intellectual Property Rights
(IPR) (resp. model accountability) pertaining to images (resp. toxic images)
and models (resp. poisoned models) generated. In this paper, we propose an
evaluation framework to provide a comprehensive overview of the current state
of the copyright protection measures for GANs, evaluate their performance
across a diverse range of GAN architectures, and identify the factors that
affect their performance and future research directions. Our findings indicate
that the current IPR protection methods for input images, model watermarking,
and attribution networks are largely satisfactory for a wide range of GANs. We
highlight that further attention must be directed towards protecting training
sets, as the current approaches fail to provide robust IPR protection and
provenance tracing on training sets.
- Abstract(参考訳): 生成型ai(例えば、生成型adversarial networks - gans)は近年ますます人気が高まっている。
しかし、生成aiは、画像(有毒画像)とモデル(有毒モデル)に関連する知的財産権(ipr)の保護(resp. model accountability)に関する重要な懸念を提起する。
本稿では,gansの著作権保護対策の現状を総合的に概観し,様々なganアーキテクチャにおけるその性能を評価し,その性能と今後の研究方向性に影響を与える要因を明らかにするための評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークに対する現在のITP保護法は,広範囲のGANに対してほぼ十分であることがわかった。
現在のアプローチでは、トレーニングセットに対する堅牢なIPR保護とプロファイランストレースが提供できないため、トレーニングセットの保護に向けてさらなる注意を払わなければならない。
関連論文リスト
- Probabilistic Copyright Protection Can Fail for Text-to-Image Generative
Models [31.22093990185084]
我々は,新しいオンラインアタックフレームワークであるVirtually Assured Amplification Attack (VA3)を紹介する。
VA3は、生成モデルとの持続的な相互作用において、侵害するコンテンツを生成する確率を増幅する。
提案手法の有効性を理論的および実験的に検証した。
論文 参考訳(メタデータ) (2023-11-29T12:10:00Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Ownership Protection of Generative Adversarial Networks [9.355840335132124]
GAN(Generative Adversarial Network)は画像合成において顕著な成功を収めている。
GANの知的財産を技術的に保護することは重要である。
本稿では,対象モデルの共通特性と盗難モデルに基づく新たな所有権保護手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:31:58Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fingerprinting Generative Adversarial Networks [45.59195473861383]
Generative Adversarial Networks (GAN) は様々なアプリケーションシナリオで広く利用されている。
GANの知的財産権保護のための最初の指紋認証方式を提案する。
論文 参考訳(メタデータ) (2021-06-19T06:25:10Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Protecting Intellectual Property of Generative Adversarial Networks from
Ambiguity Attack [26.937702447957193]
フォトリアリスティック画像作成に広く用いられているGAN(Generative Adrial Networks)は完全に保護されていない。
本稿では,知的財産権(IPR)保護をGANに強制するために,ブラックボックスとホワイトボックスの両方で完全な保護フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:12:20Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - A Systematic Review on Model Watermarking for Neural Networks [1.2691047660244335]
この研究は、機械学習モデルのための異なるクラスの透かしスキームを特定し解析する分類法を提案する。
これは、構造化推論を可能にする統一的な脅威モデルを導入し、ウォーターマーキング手法の有効性の比較を行う。
望ましいセキュリティ要件とMLモデルの透かしに対する攻撃を体系化する。
論文 参考訳(メタデータ) (2020-09-25T12:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。