論文の概要: IDEA: An Inverse Domain Expert Adaptation Based Active DNN IP Protection Method
- arxiv url: http://arxiv.org/abs/2410.00059v1
- Date: Sun, 29 Sep 2024 09:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 15:09:43.571565
- Title: IDEA: An Inverse Domain Expert Adaptation Based Active DNN IP Protection Method
- Title(参考訳): IDEA: 逆ドメインエキスパート適応に基づくアクティブDNNIP保護手法
- Authors: Chaohui Xu, Qi Cui, Jinxin Dong, Weiyang He, Chip-Hong Chang,
- Abstract要約: ディープニューラルネットワーク(DNN)モデルの非合法的な複製、配布、導出は、経済的損失、評判のダメージ、さらにはプライバシー侵害にも影響を及ぼす可能性がある。
提案するIDEAは、アクティブな認証とソーストレーサビリティを備えた、逆ドメインエキスパート適応に基づくプロアクティブDNNIP保護手法である。
5つのデータセットと4つのDNNモデル上でIDEAを広範囲に評価し、認証制御、原因追跡成功率、各種攻撃に対する効果を実証した。
- 参考スコア(独自算出の注目度): 8.717704777664604
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Illegitimate reproduction, distribution and derivation of Deep Neural Network (DNN) models can inflict economic loss, reputation damage and even privacy infringement. Passive DNN intellectual property (IP) protection methods such as watermarking and fingerprinting attempt to prove the ownership upon IP violation, but they are often too late to stop catastrophic damage of IP abuse and too feeble against strong adversaries. In this paper, we propose IDEA, an Inverse Domain Expert Adaptation based proactive DNN IP protection method featuring active authorization and source traceability. IDEA generalizes active authorization as an inverse problem of domain adaptation. The multi-adaptive optimization is solved by a mixture-of-experts model with one real and two fake experts. The real expert re-optimizes the source model to correctly classify test images with a unique model user key steganographically embedded. The fake experts are trained to output random prediction on test images without or with incorrect user key embedded by minimizing their mutual information (MI) with the real expert. The MoE model is knowledge distilled into a unified protected model to avoid leaking the expert model features by maximizing their MI with additional multi-layer attention and contrastive representation loss optimization. IDEA not only prevents unauthorized users without the valid key to access the functional model, but also enable the model owner to validate the deployed model and trace the source of IP infringement. We extensively evaluate IDEA on five datasets and four DNN models to demonstrate its effectiveness in authorization control, culprit tracing success rate, and robustness against various attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)モデルの非合法的な複製、配布、導出は、経済的損失、評判のダメージ、さらにはプライバシー侵害にも影響を及ぼす可能性がある。
透かしや指紋認証などの受動的DNN知的財産権(IP)保護手法は、IP侵害による所有権の証明を試みるが、IPの乱用による破滅的な被害を防ぎ、強敵に対する不利な攻撃を防ぐには遅すぎる。
本稿では,逆ドメインエキスパート適応に基づくアクティブなDNNIP保護手法であるIDEAを提案する。
IDEAは、ドメイン適応の逆問題としてアクティブ認証を一般化する。
マルチアダプティブ最適化は、1つの実数と2つの偽のエキスパートを混合したエキスパートモデルによって解決される。
真の専門家は、ソースモデルを再最適化して、ユニークなモデルのユーザキーをステガノグラフィーに埋め込まれたテストイメージを正しく分類する。
偽の専門家は、実際の専門家との相互情報(MI)を最小化することにより、不正なユーザキーを埋め込んだり、あるいは埋め込んだりすることなく、テスト画像に対してランダムな予測を出力するように訓練される。
MoEモデルは、MIを多層的な注意と対照的な表現損失最適化で最大化することにより、専門家モデルの特徴の漏洩を避けるため、統一された保護モデルに抽出された知識である。
IDEAは、機能モデルにアクセスするための有効なキーのない不正なユーザを防ぐだけでなく、モデル所有者がデプロイされたモデルを検証し、IP侵害の原因を追跡できるようにする。
5つのデータセットと4つのDNNモデル上でIDEAを広範囲に評価し、認証制御、原因追跡成功率、各種攻撃に対する堅牢性を実証した。
関連論文リスト
- Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - VeriDIP: Verifying Ownership of Deep Neural Networks through Privacy
Leakage Fingerprints [16.564206424838485]
マシンラーニング・アズ・ア・サービスへのデプロイは、モデルプラジャリズムを引き起こし、著作権侵害につながる。
本稿では,モデルの知的特性を検証する VeriDIP という新しいオーナシップテスト手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T01:58:12Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - InFIP: An Explainable DNN Intellectual Property Protection Method based
on Intrinsic Features [12.037142903022891]
本稿では,説明可能な人工知能に基づくディープニューラルネットワーク(DNN)の解釈可能な知的財産保護手法を提案する。
提案手法はDNNモデルを変更せず,オーナシップ検証の決定は解釈可能である。
実験結果から,指紋はモデルの所有権検証に有効であることが示された。
論文 参考訳(メタデータ) (2022-10-14T03:12:36Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - AdvParams: An Active DNN Intellectual Property Protection Technique via
Adversarial Perturbation Based Parameter Encryption [10.223780756303196]
本稿では,DNNIPを侵害から積極的に保護するための効果的な枠組みを提案する。
具体的には、DNNモデルのパラメータを、よく構築された対向的摂動で摂動することで暗号化する。
暗号化後、暗号化されたパラメータの位置と追加された敵の摂動の値が秘密鍵となる。
論文 参考訳(メタデータ) (2021-05-28T09:42:35Z) - ActiveGuard: An Active DNN IP Protection Technique via Adversarial
Examples [10.058070050660104]
ActiveGuard は、認証済みユーザーと不正ユーザーを区別するために、ユーザーの指紋として敵の例を利用します。
オーナシップ検証では,DNNモデルの通常の性能には影響しないが,組込み透かしをうまく抽出することができる。
論文 参考訳(メタデータ) (2021-03-02T07:16:20Z) - Passport-aware Normalization for Deep Model Protection [122.61289882357022]
深層学習モデルのためのパスポート対応正規化定式化を提案する。
IP保護のために別のパスポート対応ブランチを追加する必要がある。
微調整やモデル圧縮といった一般的な攻撃技術だけでなく、あいまいな攻撃にも堅牢であることが示されている。
論文 参考訳(メタデータ) (2020-10-29T17:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。