論文の概要: Probabilistic Copyright Protection Can Fail for Text-to-Image Generative
Models
- arxiv url: http://arxiv.org/abs/2312.00057v1
- Date: Wed, 29 Nov 2023 12:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 17:24:35.935334
- Title: Probabilistic Copyright Protection Can Fail for Text-to-Image Generative
Models
- Title(参考訳): テキスト・画像生成モデルにおける確率論的著作権保護
- Authors: Xiang Li, Qianli Shen, Kenji Kawaguchi
- Abstract要約: 我々は,新しいオンラインアタックフレームワークであるVirtually Assured Amplification Attack (VA3)を紹介する。
VA3は、生成モデルとの持続的な相互作用において、侵害するコンテンツを生成する確率を増幅する。
提案手法の有効性を理論的および実験的に検証した。
- 参考スコア(独自算出の注目度): 31.22093990185084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The booming use of text-to-image generative models has raised concerns about
their high risk of producing copyright-infringing content. While probabilistic
copyright protection methods provide a probabilistic guarantee against such
infringement, in this paper, we introduce Virtually Assured Amplification
Attack (VA3), a novel online attack framework that exposes the vulnerabilities
of these protection mechanisms. The proposed framework significantly amplifies
the probability of generating infringing content on the sustained interactions
with generative models and a lower-bounded success probability of each
engagement. Our theoretical and experimental results demonstrate the
effectiveness of our approach and highlight the potential risk of implementing
probabilistic copyright protection in practical applications of text-to-image
generative models. Code is available at https://github.com/South7X/VA3.
- Abstract(参考訳): テキストから画像への生成モデルの利用が急増し、著作権侵害コンテンツを制作するリスクが高いとの懸念が高まっている。
本稿では,著作権保護機構の脆弱性を露呈する新たなオンラインアタックフレームワークであるva3(virtual assured amplification attack)について紹介する。
提案フレームワークは,生成モデルとの持続的相互作用における侵害内容の生成確率と,各エンゲージメントの低い成功確率を著しく増幅する。
提案手法の有効性を理論的および実験的に示し,テキスト対画像生成モデルの実用的応用において,確率的著作権保護を実施する潜在的リスクを浮き彫りにする。
コードはhttps://github.com/south7x/va3で入手できる。
関連論文リスト
- CopyrightMeter: Revisiting Copyright Protection in Text-to-image Models [30.618794027527695]
我々は17の最先端保護と16の代表的な攻撃を組み込んだ統合評価フレームワークであるPiciceMeterを開発した。
分析の結果, (i) 大部分の保護(16/17) は攻撃に対する耐性がない, (ii) ベスト保護は目標の優先度によって異なる, (iii) より高度な攻撃は保護のアップグレードを著しく促進する,という結論が得られた。
論文 参考訳(メタデータ) (2024-11-20T09:19:10Z) - Probabilistic Analysis of Copyright Disputes and Generative AI Safety [0.0]
この論文は、特に「逆比則」に重点を置き、重要な顕在的原則の構造化分析を提供する。
本稿では、生成AIによる著作権リスクの増大について検討し、生成モデルによる著作権物質へのアクセスが侵害のリスクを高めることを明らかにする。
この分析により、Near Access-Free (NAF) 条件はいくつかの侵害リスクを緩和するが、その正当性と有効性は特定の文脈で疑わしいことが判明した。
論文 参考訳(メタデータ) (2024-10-01T08:05:19Z) - Strong Copyright Protection for Language Models via Adaptive Model Fusion [15.48692649098646]
Copyright-Protecting Fusion (CP-Fuse) は、言語モデルを適応的に組み合わせて保護された物質の再生を最小限にするアルゴリズムである。
その結果,CP-Fuseは高品質なテキストとコード生成を維持しつつ,著作権のあるコンテンツの記憶を著しく減少させることがわかった。
論文 参考訳(メタデータ) (2024-07-29T15:32:30Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Concept Arithmetics for Circumventing Concept Inhibition in Diffusion Models [58.065255696601604]
拡散モデルの合成特性を使い、単一の画像生成において複数のプロンプトを利用することができる。
本論では, 画像生成の可能なすべてのアプローチを, 相手が適用可能な拡散モデルで検討することが重要であると論じる。
論文 参考訳(メタデータ) (2024-04-21T16:35:16Z) - CPR: Retrieval Augmented Generation for Copyright Protection [101.15323302062562]
本稿では,著作権保護の強いRAGの新しい手法であるRetrieval(CPR)を用いたCopyProtected生成について紹介する。
CPRは、取得した画像のセットに拡散モデルの出力を条件付けることができる。
CPRは、攻撃者が生成した画像から抽出できる可能性のある情報の量を制限するNear Access Freeness (NAF) を満たすことを証明している。
論文 参考訳(メタデータ) (2024-03-27T18:09:55Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Copyright Protection and Accountability of Generative AI:Attack,
Watermarking and Attribution [7.0159295162418385]
本稿では,GANの著作権保護対策の現状を概観する評価枠組みを提案する。
以上の結果から,入力画像,モデル透かし,帰属ネットワークなどの知的財産権保護手法は,広範囲のGANに好適であることが示唆された。
論文 参考訳(メタデータ) (2023-03-15T06:40:57Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。