論文の概要: Integrity Fingerprinting of DNN with Double Black-box Design and
Verification
- arxiv url: http://arxiv.org/abs/2203.10902v2
- Date: Wed, 23 Mar 2022 09:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 11:51:50.922003
- Title: Integrity Fingerprinting of DNN with Double Black-box Design and
Verification
- Title(参考訳): ダブルブラックボックス設計によるDNNの積分フィンガープリントと検証
- Authors: Shuo Wang, Sharif Abuadbba, Sidharth Agarwal, Kristen Moore, Surya
Nepal, Salil Kanhere
- Abstract要約: そこで本研究では,指紋設計におけるブラックボックス知識と検証中のブラックボックスクエリを実現するための実用的な透かし手法について述べる。
本手法は, 限られた数のサンプル指紋を生成することにより, 決定境界を捕捉する。
各種モデル整合性攻撃とモデル圧縮攻撃に対する透かし手法の評価を行った。
- 参考スコア(独自算出の注目度): 18.92159898640074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud-enabled Machine Learning as a Service (MLaaS) has shown enormous
promise to transform how deep learning models are developed and deployed.
Nonetheless, there is a potential risk associated with the use of such services
since a malicious party can modify them to achieve an adverse result.
Therefore, it is imperative for model owners, service providers, and end-users
to verify whether the deployed model has not been tampered with or not. Such
verification requires public verifiability (i.e., fingerprinting patterns are
available to all parties, including adversaries) and black-box access to the
deployed model via APIs. Existing watermarking and fingerprinting approaches,
however, require white-box knowledge (such as gradient) to design the
fingerprinting and only support private verifiability, i.e., verification by an
honest party.
In this paper, we describe a practical watermarking technique that enables
black-box knowledge in fingerprint design and black-box queries during
verification. The service ensures the integrity of cloud-based services through
public verification (i.e. fingerprinting patterns are available to all parties,
including adversaries). If an adversary manipulates a model, this will result
in a shift in the decision boundary. Thus, the underlying principle of
double-black watermarking is that a model's decision boundary could serve as an
inherent fingerprint for watermarking. Our approach captures the decision
boundary by generating a limited number of encysted sample fingerprints, which
are a set of naturally transformed and augmented inputs enclosed around the
model's decision boundary in order to capture the inherent fingerprints of the
model. We evaluated our watermarking approach against a variety of model
integrity attacks and model compression attacks.
- Abstract(参考訳): クラウド対応の機械学習・アズ・ア・サービス(MLaaS)は、ディープラーニングモデルの開発とデプロイの方法を変えるという大きな可能性を示しています。
それにもかかわらず、悪意ある当事者が悪質な結果を得るために修正できるため、そのようなサービスの使用に伴う潜在的なリスクがある。
したがって、モデルオーナ、サービスプロバイダ、エンドユーザは、デプロイされたモデルが改ざんされていないかどうかを検証することが不可欠である。
このような検証には、パブリックな検証可能性(すなわち、敵を含むすべてのパーティで指紋認証パターンが利用可能)と、API経由でデプロイされたモデルへのブラックボックスアクセスが必要である。
しかし、既存の透かしや指紋認証のアプローチでは、指紋認証の設計にはホワイトボックスの知識(勾配など)が必要であり、個人的な検証性、すなわち正直な当事者による検証のみをサポートする。
本稿では,指紋設計におけるブラックボックス知識と検証時のブラックボックス問合せを可能にする,実用的な透かし手法について述べる。
このサービスは、公開検証を通じてクラウドベースのサービスの整合性を保証する(すなわち、敵を含むすべての当事者が指紋認証パターンを利用できる)。
相手がモデルを操作すると、決定境界が変更される。
したがって、ダブルブラック透かしの基本的な原理は、モデルの決定境界が透かしの固有の指紋として機能することである。
提案手法は, モデル固有の指紋をキャプチャするために, モデル決定境界の周りに自然に変換され, 拡張された入力の集合である, 限られた数のサンプル指紋を生成することにより, 決定境界を捕捉する。
各種モデル整合性攻撃とモデル圧縮攻撃に対する透かし手法の評価を行った。
関連論文リスト
- Explanation as a Watermark: Towards Harmless and Multi-bit Model Ownership Verification via Watermarking Feature Attribution [22.933101948176606]
バックドアベースのモデル透かしは、リリースされたモデルにそのような特性を埋め込む、プライマリおよび最先端の方法である。
特徴属性の説明に検証動作を埋め込む新しい透かしパラダイムである$i.e.$, Explanation as a Watermark (EaaW) を設計する。
論文 参考訳(メタデータ) (2024-05-08T05:49:46Z) - A Watermark-Conditioned Diffusion Model for IP Protection [31.969286898467985]
拡散モデルにおけるコンテンツ著作権保護のための統一的な透かしフレームワークを提案する。
そこで我々はWaDiffと呼ばれるWadmark条件付き拡散モデルを提案する。
本手法は,検出タスクと所有者識別タスクの両方において有効かつ堅牢である。
論文 参考訳(メタデータ) (2024-03-16T11:08:15Z) - Robust Retraining-free GAN Fingerprinting via Personalized Normalization [21.63902009635896]
提案手法は,ParamGen Netsの入力を変更するだけで,異なる指紋をGAN内に埋め込むことができる。
モデルレベルの攻撃と画像レベルの攻撃の両方に対するロバスト性の観点から提案手法の性能は,最先端技術よりも優れている。
論文 参考訳(メタデータ) (2023-11-09T16:09:12Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - FBI: Fingerprinting models with Benign Inputs [17.323638042215013]
本稿では,モデルファミリとその変種の概念を一般化することにより,モデルの大幅な修正に耐性のある指紋認証方式を提案する。
我々は、修正されていない画像である良性入力が、両方のタスクに十分な材料であることを実証することによって、両方の目標を達成する。
どちらのアプローチも、かつてない1000以上のネットワークに対して実験的に検証されている。
論文 参考訳(メタデータ) (2022-08-05T13:55:36Z) - Fingerprinting Deep Neural Networks Globally via Universal Adversarial
Perturbations [22.89321897726347]
本稿では,被害者モデルから被疑者モデルが盗まれたかどうかをサービス提供者が検証できるようにする,新しい,実用的なメカニズムを提案する。
我々のフレームワークは、容疑者モデルの指紋が20ドル以内で、信頼度99.99 %のモデルIP侵害を検出することができる。
論文 参考訳(メタデータ) (2022-02-17T11:29:50Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。