論文の概要: Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution
- arxiv url: http://arxiv.org/abs/2303.09272v1
- Date: Wed, 15 Mar 2023 06:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:42:23.420402
- Title: Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution
- Title(参考訳): 生成AIの著作権保護と説明責任:アタック、透かしおよび属性
- Authors: Haonan Zhong, Jiamin Chang, Ziyue Yang, Tingmin Wu, Pathum Chamikara
Mahawaga Arachchige, Chehara Pathmabandu, Minhui Xue
- Abstract要約: 本稿では,GANの著作権保護対策の現状を概観する評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークなどの知的財産権保護手法は,広範囲のGANに好適であることが示唆された。
- 参考スコア(独自算出の注目度): 7.0159295162418385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (e.g., Generative Adversarial Networks - GANs) has become
increasingly popular in recent years. However, Generative AI introduces
significant concerns regarding the protection of Intellectual Property Rights
(IPR) (resp. model accountability) pertaining to images (resp. toxic images)
and models (resp. poisoned models) generated. In this paper, we propose an
evaluation framework to provide a comprehensive overview of the current state
of the copyright protection measures for GANs, evaluate their performance
across a diverse range of GAN architectures, and identify the factors that
affect their performance and future research directions. Our findings indicate
that the current IPR protection methods for input images, model watermarking,
and attribution networks are largely satisfactory for a wide range of GANs. We
highlight that further attention must be directed towards protecting training
sets, as the current approaches fail to provide robust IPR protection and
provenance tracing on training sets.
- Abstract(参考訳): 生成型ai(例えば、生成型adversarial networks - gans)は近年ますます人気が高まっている。
しかし、生成aiは、画像(有毒画像)とモデル(有毒モデル)に関連する知的財産権(ipr)の保護(resp. model accountability)に関する重要な懸念を提起する。
本稿では,gansの著作権保護対策の現状を総合的に概観し,様々なganアーキテクチャにおけるその性能を評価し,その性能と今後の研究方向性に影響を与える要因を明らかにするための評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークに対する現在のITP保護法は,広範囲のGANに対してほぼ十分であることがわかった。
現在のアプローチでは、トレーニングセットに対する堅牢なIPR保護とプロファイランストレースが提供できないため、トレーニングセットの保護に向けてさらなる注意を払わなければならない。
関連論文リスト
- SoK: Watermarking for AI-Generated Content [112.9218881276487]
ウォーターマーキングスキームは、AI生成コンテンツに隠された信号を埋め込んで、信頼性の高い検出を可能にする。
透かしは、誤情報や偽造と戦ってAIの安全性と信頼性を高める上で重要な役割を果たす。
本研究の目的は、研究者が透かし法や応用の進歩を指導し、GenAIの幅広い意味に対処する政策立案者を支援することである。
論文 参考訳(メタデータ) (2024-11-27T16:22:33Z) - CopyrightMeter: Revisiting Copyright Protection in Text-to-image Models [30.618794027527695]
我々は17の最先端保護と16の代表的な攻撃を組み込んだ統合評価フレームワークであるPiciceMeterを開発した。
分析の結果, (i) 大部分の保護(16/17) は攻撃に対する耐性がない, (ii) ベスト保護は目標の優先度によって異なる, (iii) より高度な攻撃は保護のアップグレードを著しく促進する,という結論が得られた。
論文 参考訳(メタデータ) (2024-11-20T09:19:10Z) - Agentic Copyright Watermarking against Adversarial Evidence Forgery with Purification-Agnostic Curriculum Proxy Learning [8.695511322757262]
不正使用と不正なAIモデルの配布は、知的財産に深刻な脅威をもたらす。
モデル透かしはこの問題に対処するための重要なテクニックとして登場した。
本稿では,透かしモデルへのいくつかの貢献について述べる。
論文 参考訳(メタデータ) (2024-09-03T02:18:45Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fingerprinting Image-to-Image Generative Adversarial Networks [53.02510603622128]
Generative Adversarial Networks (GAN) は様々なアプリケーションシナリオで広く利用されている。
本稿では,信頼できる第三者に基づく画像間GANの知的保護のための新しい指紋認証方式を提案する。
論文 参考訳(メタデータ) (2021-06-19T06:25:10Z) - Protecting Intellectual Property of Generative Adversarial Networks from
Ambiguity Attack [26.937702447957193]
フォトリアリスティック画像作成に広く用いられているGAN(Generative Adrial Networks)は完全に保護されていない。
本稿では,知的財産権(IPR)保護をGANに強制するために,ブラックボックスとホワイトボックスの両方で完全な保護フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:12:20Z) - A Systematic Review on Model Watermarking for Neural Networks [1.2691047660244335]
この研究は、機械学習モデルのための異なるクラスの透かしスキームを特定し解析する分類法を提案する。
これは、構造化推論を可能にする統一的な脅威モデルを導入し、ウォーターマーキング手法の有効性の比較を行う。
望ましいセキュリティ要件とMLモデルの透かしに対する攻撃を体系化する。
論文 参考訳(メタデータ) (2020-09-25T12:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。