論文の概要: Steganographic Passport: An Owner and User Verifiable Credential for Deep Model IP Protection Without Retraining
- arxiv url: http://arxiv.org/abs/2404.02889v1
- Date: Wed, 3 Apr 2024 17:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 16:40:30.946849
- Title: Steganographic Passport: An Owner and User Verifiable Credential for Deep Model IP Protection Without Retraining
- Title(参考訳): Steganographic Passport: 再トレーニングなしでのディープモデルIP保護のための所有者とユーザ認証
- Authors: Qi Cui, Ruohan Meng, Chaohui Xu, Chip-Hong Chang,
- Abstract要約: ライセンス・ツー・ユースとオーナシップの検証のためにモデル機能を難なくするパスポートベースの現在の手法は、キャパシティと品質の制約に悩まされている。
本稿では,ステガノグラフィ・パスポートを提案する。ステガノグラフィ・パスポートは,ステガノグラフィ・ネットワークを用いて,ライセンス・ツー・ユースをオーナシップの検証から切り離す。
誘導されたユーザ側パスポートから所有者側パスポートが露出することを避けるために、不可逆かつ耐衝突性ハッシュ関数が使用される。
- 参考スコア(独自算出の注目度): 9.617679554145301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring the legal usage of deep models is crucial to promoting trustable, accountable, and responsible artificial intelligence innovation. Current passport-based methods that obfuscate model functionality for license-to-use and ownership verifications suffer from capacity and quality constraints, as they require retraining the owner model for new users. They are also vulnerable to advanced Expanded Residual Block ambiguity attacks. We propose Steganographic Passport, which uses an invertible steganographic network to decouple license-to-use from ownership verification by hiding the user's identity images into the owner-side passport and recovering them from their respective user-side passports. An irreversible and collision-resistant hash function is used to avoid exposing the owner-side passport from the derived user-side passports and increase the uniqueness of the model signature. To safeguard both the passport and model's weights against advanced ambiguity attacks, an activation-level obfuscation is proposed for the verification branch of the owner's model. By jointly training the verification and deployment branches, their weights become tightly coupled. The proposed method supports agile licensing of deep models by providing a strong ownership proof and license accountability without requiring a separate model retraining for the admission of every new user. Experiment results show that our Steganographic Passport outperforms other passport-based deep model protection methods in robustness against various known attacks.
- Abstract(参考訳): ディープモデルの法的な使用を保証することは、信頼性、説明責任、責任のある人工知能イノベーションを促進するために不可欠である。
ライセンス・ツー・ユースとオーナシップの検証のためにモデル機能を難なくするパスポートベースの現在の手法は、新しいユーザのためにオーナモデルを再トレーニングする必要があるため、キャパシティと品質の制約に悩まされている。
また、高度なResidual Block ambiguity攻撃にも脆弱である。
本稿では,ユーザIDイメージを所有者側のパスポートに隠蔽し,各ユーザ側のパスポートから復元することで,ライセンスの所有権確認から利用を分離するために,非可逆なステガノグラフネットワークを使用するステガノグラフパスポートを提案する。
誘導されたユーザ側パスポートからオーナー側パスポートが露出されることを回避し、モデルシグネチャの独自性を高めるために、不可逆かつ衝突耐性のハッシュ関数を用いる。
パスポートとモデルウェイトの両方を高度なあいまいさ攻撃から保護するために、オーナーモデルの検証ブランチに対してアクティベーションレベルの難読化を提案する。
検証とデプロイメントのブランチを共同でトレーニングすることで、その重みは密結合になる。
提案手法は,新しいユーザ全員の受け入れのために,個別のモデル再トレーニングを必要とせずに,強力なオーナシップ証明とライセンス説明責任を提供することで,ディープモデルのアジャイルライセンスを支援する。
実験の結果,我々のステガノグラフパスポートは,他のパスポートベースのディープモデル保護手法よりも,様々な既知の攻撃に対して堅牢性が高いことがわかった。
関連論文リスト
- EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature [60.99054146321459]
フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T12:10:02Z) - DeepHider: A Multi-module and Invisibility Watermarking Scheme for
Language Model [0.0]
本稿では,モデル分類モジュールを置換し,モデル全体の微調整を行う新たな脅威を提案する。
私たちは、盗難の所有権ステートメントを防ぐために、タンパー保護やトレーサビリティといったブロックチェーンの特性を使用します。
実験の結果,提案手法は100%の透かし検証精度でオーナシップの検証に成功した。
論文 参考訳(メタデータ) (2022-08-09T11:53:24Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Resurrecting Trust in Facial Recognition: Mitigating Backdoor Attacks in
Face Recognition to Prevent Potential Privacy Breaches [7.436067208838344]
深層学習は顔認識(FR)に広く利用されている
しかし、そのようなモデルは悪意のある当事者によって実行されるバックドア攻撃に対して脆弱である。
BA-BAM: Biometric Authentication - Backdoor Attack Mitigationを提案する。
論文 参考訳(メタデータ) (2022-02-18T13:53:55Z) - FedIPR: Ownership Verification for Federated Deep Neural Network Models [31.459374163080994]
これらのモデルは、複数の機関や人々が所有する貴重なトレーニングデータに基づいて構築されているため、フェデレートされた学習モデルは、盗作行為から保護されなければならない。
本稿では、FedDNNモデルの知的財産権(IPR)を主張するために、所有権署名を埋め込み、検証できる新しいフェデレーションディープニューラルネットワーク(FedDNN)のオーナシップ検証スキームについて述べる。
論文 参考訳(メタデータ) (2021-09-27T12:51:24Z) - PASS: Protected Attribute Suppression System for Mitigating Bias in Face
Recognition [55.858374644761525]
顔認識ネットワークは、識別分類のために訓練されている間、機密属性に関する情報を符号化する。
既存のバイアス緩和アプローチでは、エンドツーエンドのトレーニングが必要であり、高い精度を達成できない。
PASS(Protected Attribute Suppression System)と呼ばれる記述子に基づく逆バイアス除去手法を提案する。
パスは、以前に訓練されたハイパフォーマンスネットワークから得られた記述子を使って、アイデンティティを分類し、機密属性のエンコーディングを同時に削減することができる。
論文 参考訳(メタデータ) (2021-08-09T00:39:22Z) - Passport-aware Normalization for Deep Model Protection [122.61289882357022]
深層学習モデルのためのパスポート対応正規化定式化を提案する。
IP保護のために別のパスポート対応ブランチを追加する必要がある。
微調整やモデル圧縮といった一般的な攻撃技術だけでなく、あいまいな攻撃にも堅牢であることが示されている。
論文 参考訳(メタデータ) (2020-10-29T17:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。