論文の概要: Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution
- arxiv url: http://arxiv.org/abs/2303.09272v1
- Date: Wed, 15 Mar 2023 06:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:42:23.420402
- Title: Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution
- Title(参考訳): 生成AIの著作権保護と説明責任:アタック、透かしおよび属性
- Authors: Haonan Zhong, Jiamin Chang, Ziyue Yang, Tingmin Wu, Pathum Chamikara
Mahawaga Arachchige, Chehara Pathmabandu, Minhui Xue
- Abstract要約: 本稿では,GANの著作権保護対策の現状を概観する評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークなどの知的財産権保護手法は,広範囲のGANに好適であることが示唆された。
- 参考スコア(独自算出の注目度): 7.0159295162418385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (e.g., Generative Adversarial Networks - GANs) has become
increasingly popular in recent years. However, Generative AI introduces
significant concerns regarding the protection of Intellectual Property Rights
(IPR) (resp. model accountability) pertaining to images (resp. toxic images)
and models (resp. poisoned models) generated. In this paper, we propose an
evaluation framework to provide a comprehensive overview of the current state
of the copyright protection measures for GANs, evaluate their performance
across a diverse range of GAN architectures, and identify the factors that
affect their performance and future research directions. Our findings indicate
that the current IPR protection methods for input images, model watermarking,
and attribution networks are largely satisfactory for a wide range of GANs. We
highlight that further attention must be directed towards protecting training
sets, as the current approaches fail to provide robust IPR protection and
provenance tracing on training sets.
- Abstract(参考訳): 生成型ai(例えば、生成型adversarial networks - gans)は近年ますます人気が高まっている。
しかし、生成aiは、画像(有毒画像)とモデル(有毒モデル)に関連する知的財産権(ipr)の保護(resp. model accountability)に関する重要な懸念を提起する。
本稿では,gansの著作権保護対策の現状を総合的に概観し,様々なganアーキテクチャにおけるその性能を評価し,その性能と今後の研究方向性に影響を与える要因を明らかにするための評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークに対する現在のITP保護法は,広範囲のGANに対してほぼ十分であることがわかった。
現在のアプローチでは、トレーニングセットに対する堅牢なIPR保護とプロファイランストレースが提供できないため、トレーニングセットの保護に向けてさらなる注意を払わなければならない。
関連論文リスト
- Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Membership Inference Attacks Against Text-to-image Generation Models [23.39695974954703]
本稿では,メンバシップ推論のレンズを用いたテキスト・画像生成モデルの最初のプライバシ解析を行う。
本稿では,メンバーシップ情報に関する3つの重要な直観と,それに応じて4つの攻撃手法を設計する。
提案した攻撃はいずれも大きな性能を達成でき、場合によっては精度が1に近い場合もあり、既存のメンバーシップ推論攻撃よりもはるかに深刻なリスクとなる。
論文 参考訳(メタデータ) (2022-10-03T14:31:39Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Model [0.0]
本研究では,パッシブ著作権保護・トレーサビリティ・フレームワークPCPTを提案する。
これは、ビデオフレーミングと画像知覚ハッシュアルゴリズムによるブラックボックスニューラルネットワーク透かしのアイデアに基づいている。
より厳格な認証制御を実現し、ユーザーとモデル所有者との強いつながりを確立する。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Protecting Intellectual Property of Generative Adversarial Networks from
Ambiguity Attack [26.937702447957193]
フォトリアリスティック画像作成に広く用いられているGAN(Generative Adrial Networks)は完全に保護されていない。
本稿では,知的財産権(IPR)保護をGANに強制するために,ブラックボックスとホワイトボックスの両方で完全な保護フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:12:20Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - A Systematic Review on Model Watermarking for Neural Networks [1.2691047660244335]
この研究は、機械学習モデルのための異なるクラスの透かしスキームを特定し解析する分類法を提案する。
これは、構造化推論を可能にする統一的な脅威モデルを導入し、ウォーターマーキング手法の有効性の比較を行う。
望ましいセキュリティ要件とMLモデルの透かしに対する攻撃を体系化する。
論文 参考訳(メタデータ) (2020-09-25T12:03:02Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。