論文の概要: PCDiff: Proactive Control for Ownership Protection in Diffusion Models with Watermark Compatibility
- arxiv url: http://arxiv.org/abs/2504.11774v1
- Date: Wed, 16 Apr 2025 05:28:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:40:16.135063
- Title: PCDiff: Proactive Control for Ownership Protection in Diffusion Models with Watermark Compatibility
- Title(参考訳): PCDiff:透かし適合性のある拡散モデルにおけるオーナーシップ保護のための積極的な制御
- Authors: Keke Gai, Ziyue Shen, Jing Yu, Liehuang Zhu, Qi Wu,
- Abstract要約: PCDiffは、生成品質を規制することによってモデルの認可を再定義するプロアクティブアクセス制御フレームワークである。
PCDIFFはトレーニング可能なfuserモジュールと階層的な認証レイヤをデコーダアーキテクチャに統合する。
- 参考スコア(独自算出の注目度): 23.64920988914223
- License:
- Abstract: With the growing demand for protecting the intellectual property (IP) of text-to-image diffusion models, we propose PCDiff -- a proactive access control framework that redefines model authorization by regulating generation quality. At its core, PCDIFF integrates a trainable fuser module and hierarchical authentication layers into the decoder architecture, ensuring that only users with valid encrypted credentials can generate high-fidelity images. In the absence of valid keys, the system deliberately degrades output quality, effectively preventing unauthorized exploitation.Importantly, while the primary mechanism enforces active access control through architectural intervention, its decoupled design retains compatibility with existing watermarking techniques. This satisfies the need of model owners to actively control model ownership while preserving the traceability capabilities provided by traditional watermarking approaches.Extensive experimental evaluations confirm a strong dependency between credential verification and image quality across various attack scenarios. Moreover, when combined with typical post-processing operations, PCDIFF demonstrates powerful performance alongside conventional watermarking methods. This work shifts the paradigm from passive detection to proactive enforcement of authorization, laying the groundwork for IP management of diffusion models.
- Abstract(参考訳): テキスト・ツー・イメージ拡散モデルの知的財産権(IP)保護の需要が高まる中、我々は、生成品質を規制してモデル認証を再定義するプロアクティブアクセス制御フレームワークであるPCDiffを提案する。
PCDIFFのコアとなるのは、トレーニング可能なfuserモジュールと階層的な認証レイヤをデコーダアーキテクチャに統合することで、有効な暗号化された資格を持つユーザだけが高忠実なイメージを生成できるようにすることである。
有効な鍵がない場合、システムは出力品質を意図的に劣化させ、不正な利用を効果的に防止するが、重要なことは、主要なメカニズムがアーキテクチャ上の介入を通じてアクティブアクセス制御を強制する一方で、その分離設計は既存の透かし技術との互換性を維持している。
これは、従来の透かし手法によって提供されるトレーサビリティ機能を保ちながら、モデル所有者がモデルオーナを積極的に制御する必要性を満たすものであり、広範囲な実験的評価により、様々な攻撃シナリオにおけるクレデンシャル検証と画像品質の強い依存性が確認できる。
さらに,典型的な後処理操作と組み合わせることで,従来のウォーターマーキング手法と並行して,強力な性能を示す。
この研究は、パラダイムを受動的検出から積極的に認可の実施へとシフトさせ、拡散モデルのIP管理の基礎となる。
関連論文リスト
- Task-Agnostic Language Model Watermarking via High Entropy Passthrough Layers [11.089926858383476]
本稿では,既存の事前学習ネットワークに付加されたパススルー層を用いたモデル透かしを提案する。
本手法は完全にタスク非依存であり,分類タスクとシーケンス対シーケンスタスクの両方に適用できる。
提案手法は, 下流の微調整, 微切り, 層除去攻撃に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-12-17T05:46:50Z) - Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - Agentic Copyright Watermarking against Adversarial Evidence Forgery with Purification-Agnostic Curriculum Proxy Learning [8.695511322757262]
不正使用と不正なAIモデルの配布は、知的財産に深刻な脅威をもたらす。
モデル透かしはこの問題に対処するための重要なテクニックとして登場した。
本稿では,透かしモデルへのいくつかの貢献について述べる。
論文 参考訳(メタデータ) (2024-09-03T02:18:45Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Diffusion-Based Hierarchical Image Steganography [60.69791384893602]
Hierarchical Image Steganographyは、複数のイメージを単一のコンテナに埋め込むセキュリティとキャパシティを高める新しい方法である。
フローモデルの可逆性とともに拡散モデルの堅牢性を利用する。
この革新的な構造は、コンテナイメージを自律的に生成し、複数の画像やテキストを安全かつ効率的に隠蔽することができる。
論文 参考訳(メタデータ) (2024-05-19T11:29:52Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Non-Transferable Learning: A New Approach for Model Verification and
Authorization [7.686781778077341]
オーナシップの認証と使用許可という2つの一般的な保護方法がある。
学習モデルにおける排他的データ表現をキャプチャする新しい手法であるNon-Transferable Learning (NTL)を提案する。
我々のNTLベースの認証アプローチは、不正なデータに対する使用性能を著しく低下させることで、データ中心の使用保護を提供します。
論文 参考訳(メタデータ) (2021-06-13T04:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。