論文の概要: Fingerprinting Deep Neural Networks Globally via Universal Adversarial
Perturbations
- arxiv url: http://arxiv.org/abs/2202.08602v1
- Date: Thu, 17 Feb 2022 11:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 20:13:22.225256
- Title: Fingerprinting Deep Neural Networks Globally via Universal Adversarial
Perturbations
- Title(参考訳): 普遍的対向摂動による深部ニューラルネットワークのグローバルなフィンガープリント
- Authors: Zirui Peng and Shaofeng Li and Guoxing Chen and Cheng Zhang and Haojin
Zhu and Minhui Xue
- Abstract要約: 本稿では,被害者モデルから被疑者モデルが盗まれたかどうかをサービス提供者が検証できるようにする,新しい,実用的なメカニズムを提案する。
我々のフレームワークは、容疑者モデルの指紋が20ドル以内で、信頼度99.99 %のモデルIP侵害を検出することができる。
- 参考スコア(独自算出の注目度): 22.89321897726347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel and practical mechanism which enables the
service provider to verify whether a suspect model is stolen from the victim
model via model extraction attacks. Our key insight is that the profile of a
DNN model's decision boundary can be uniquely characterized by its
\textit{Universal Adversarial Perturbations (UAPs)}. UAPs belong to a
low-dimensional subspace and piracy models' subspaces are more consistent with
victim model's subspace compared with non-piracy model. Based on this, we
propose a UAP fingerprinting method for DNN models and train an encoder via
\textit{contrastive learning} that takes fingerprint as inputs, outputs a
similarity score. Extensive studies show that our framework can detect model IP
breaches with confidence $> 99.99 \%$ within only $20$ fingerprints of the
suspect model. It has good generalizability across different model
architectures and is robust against post-modifications on stolen models.
- Abstract(参考訳): 本稿では,容疑者モデルが被害者モデルから盗まれているかどうかをモデル抽出攻撃によって検証できる,新規かつ実用的なメカニズムを提案する。
我々の重要な洞察は、DNNモデルの決定境界のプロファイルは、その \textit{Universal Adversarial Perturbations (UAPs) によって特徴付けられることである。
UAPは低次元のサブスペースに属し、海賊モデルのサブスペースは非海賊モデルよりも犠牲者モデルのサブスペースとより整合している。
そこで本研究では, DNNモデルに対するUAPフィンガープリント手法を提案し, 指紋を入力とし, 類似度スコアを出力する <textit{contrastive learning} を用いてエンコーダを訓練する。
広範囲にわたる研究により、我々のフレームワークは、疑似モデルの20ドルの指紋だけで、信頼度99.99 %$でモデルIP侵害を検出することができることが示された。
異なるモデルアーキテクチャにまたがる優れた一般化性を持ち、盗難モデルの修正後に対して堅牢である。
関連論文リスト
- Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - NaturalFinger: Generating Natural Fingerprint with Generative
Adversarial Networks [4.536351805614037]
本稿では,GANを用いた自然な指紋を生成するNaturalFingerを提案する。
提案手法はFingerBenchデータセット(154モデル)で0.91ARUC値を達成し,最適ベースライン(MetaV)を17%以上越えた。
論文 参考訳(メタデータ) (2023-05-29T03:17:03Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - InFIP: An Explainable DNN Intellectual Property Protection Method based
on Intrinsic Features [12.037142903022891]
本稿では,説明可能な人工知能に基づくディープニューラルネットワーク(DNN)の解釈可能な知的財産保護手法を提案する。
提案手法はDNNモデルを変更せず,オーナシップ検証の決定は解釈可能である。
実験結果から,指紋はモデルの所有権検証に有効であることが示された。
論文 参考訳(メタデータ) (2022-10-14T03:12:36Z) - FBI: Fingerprinting models with Benign Inputs [17.323638042215013]
本稿では,モデルファミリとその変種の概念を一般化することにより,モデルの大幅な修正に耐性のある指紋認証方式を提案する。
我々は、修正されていない画像である良性入力が、両方のタスクに十分な材料であることを実証することによって、両方の目標を達成する。
どちらのアプローチも、かつてない1000以上のネットワークに対して実験的に検証されている。
論文 参考訳(メタデータ) (2022-08-05T13:55:36Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。