論文の概要: DynaMarks: Defending Against Deep Learning Model Extraction Using
Dynamic Watermarking
- arxiv url: http://arxiv.org/abs/2207.13321v1
- Date: Wed, 27 Jul 2022 06:49:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:16:36.868178
- Title: DynaMarks: Defending Against Deep Learning Model Extraction Using
Dynamic Watermarking
- Title(参考訳): DynaMarks:動的透かしを用いたディープラーニングモデル抽出の回避
- Authors: Abhishek Chakraborty, Daniel Xing, Yuntao Liu, and Ankur Srivastava
- Abstract要約: ディープラーニング(DL)モデルの機能は、モデル抽出によって盗むことができる。
本稿では,DLモデルの知的財産権(IP)を保護するため,DynaMarksと呼ばれる新しい透かし手法を提案する。
- 参考スコア(独自算出の注目度): 3.282282297279473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The functionality of a deep learning (DL) model can be stolen via model
extraction where an attacker obtains a surrogate model by utilizing the
responses from a prediction API of the original model. In this work, we propose
a novel watermarking technique called DynaMarks to protect the intellectual
property (IP) of DL models against such model extraction attacks in a black-box
setting. Unlike existing approaches, DynaMarks does not alter the training
process of the original model but rather embeds watermark into a surrogate
model by dynamically changing the output responses from the original model
prediction API based on certain secret parameters at inference runtime. The
experimental outcomes on Fashion MNIST, CIFAR-10, and ImageNet datasets
demonstrate the efficacy of DynaMarks scheme to watermark surrogate models
while preserving the accuracies of the original models deployed in edge
devices. In addition, we also perform experiments to evaluate the robustness of
DynaMarks against various watermark removal strategies, thus allowing a DL
model owner to reliably prove model ownership.
- Abstract(参考訳): 深層学習(DL)モデルの機能は、攻撃者が元のモデルの予測APIからの応答を利用して代理モデルを取得するモデル抽出によって盗むことができる。
そこで本研究では,DynaMarksと呼ばれる新しい透かし手法を提案し,このようなモデル抽出攻撃に対するDLモデルの知的特性(IP)をブラックボックス環境で保護する。
既存のアプローチとは異なり、DynaMarksはオリジナルのモデルのトレーニングプロセスを変更するのではなく、推論実行時の特定の秘密パラメータに基づいて、元のモデル予測APIから出力応答を動的に変更することで、透かしを代理モデルに埋め込む。
Fashion MNIST、CIFAR-10、ImageNetデータセットの実験結果は、エッジデバイスにデプロイされたオリジナルのモデルの精度を維持しながら、モデルをウォーターマークするDynaMarksスキームの有効性を示している。
また,様々な透かし除去戦略に対してダイナマークのロバスト性を評価する実験を行い,dlモデルオーナーが確実にモデルオーナシップを証明できるようにした。
関連論文リスト
- AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - Adaptive and robust watermark against model extraction attack [0.0]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - MEA-Defender: A Robust Watermark against Model Extraction Attack [19.421741149364017]
本稿では,DNNモデルのIPをモデル抽出から保護するための新しい透かし,MEA-Defenderを提案する。
我々は,教師付き学習アルゴリズムと自己教師型学習アルゴリズムに基づいて訓練された5つのデータセットと6つのモデルを用いて,4つのモデル抽出攻撃に関する広範な実験を行った。
実験結果から,MEA-Defenderは様々なモデル抽出攻撃に対して高い堅牢性を示し,様々な透かし除去・検出手法が得られた。
論文 参考訳(メタデータ) (2024-01-26T23:12:53Z) - Probabilistically Robust Watermarking of Neural Networks [4.64804216027185]
我々は、攻撃を盗む機能に対するレジリエンスを示す新しいトリガーセットベースの透かし手法を導入する。
私たちのアプローチでは、追加のモデルトレーニングは必要とせず、どんなモデルアーキテクチャにも適用できます。
論文 参考訳(メタデータ) (2024-01-16T10:32:13Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Seeds Don't Lie: An Adaptive Watermarking Framework for Computer Vision
Models [44.80560808267494]
保護モデルに固有の振る舞いを活かして,保護モデルに透かしを施す適応フレームワークを提案する。
この透かしは、同じユニークな振る舞いを持つ抽出されたモデルを検出するために使用され、保護されたモデルのIPを無許可で使用することを示す。
この枠組みは,(1)未知のモデル抽出攻撃,(2)メソッドを実行する抽出モデル(例えば,重み付け)に対して頑健であることを示す。
論文 参考訳(メタデータ) (2022-11-24T14:48:40Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。