論文の概要: Tracking Dataset IP Use in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2211.13535v1
- Date: Thu, 24 Nov 2022 11:10:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 18:22:52.636017
- Title: Tracking Dataset IP Use in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおけるデータセットip使用の追跡
- Authors: Seonhye Park, Alsharif Abuadbba, Shuo Wang, Kristen Moore, Yansong
Gao, Hyoungshick Kim, Surya Nepal
- Abstract要約: 高性能ディープニューラルネットワーク(DNN)のトレーニングは通常、大量のデータセットの収集と強力なコンピューティングリソースの使用を必要とする。
プライベートトレーニング済みのDNNの再配布は、モデル所有者に深刻な経済的損失をもたらす可能性がある。
本稿では,DEPTASTERと呼ばれる新たなDNNフィンガープリント手法を提案する。
- 参考スコア(独自算出の注目度): 36.243495273325024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training highly performant deep neural networks (DNNs) typically requires the
collection of a massive dataset and the use of powerful computing resources.
Therefore, unauthorized redistribution of private pre-trained DNNs may cause
severe economic loss for model owners. For protecting the ownership of DNN
models, DNN watermarking schemes have been proposed by embedding secret
information in a DNN model and verifying its presence for model ownership.
However, existing DNN watermarking schemes compromise the model utility and are
vulnerable to watermark removal attacks because a model is modified with a
watermark. Alternatively, a new approach dubbed DEEPJUDGE was introduced to
measure the similarity between a suspect model and a victim model without
modifying the victim model. However, DEEPJUDGE would only be designed to detect
the case where a suspect model's architecture is the same as a victim model's.
In this work, we propose a novel DNN fingerprinting technique dubbed DEEPTASTER
to prevent a new attack scenario in which a victim's data is stolen to build a
suspect model. DEEPTASTER can effectively detect such data theft attacks even
when a suspect model's architecture differs from a victim model's. To achieve
this goal, DEEPTASTER generates a few adversarial images with perturbations,
transforms them into the Fourier frequency domain, and uses the transformed
images to identify the dataset used in a suspect model. The intuition is that
those adversarial images can be used to capture the characteristics of DNNs
built on a specific dataset. We evaluated the detection accuracy of DEEPTASTER
on three datasets with three model architectures under various attack
scenarios, including transfer learning, pruning, fine-tuning, and data
augmentation. Overall, DEEPTASTER achieves a balanced accuracy of 94.95%, which
is significantly better than 61.11% achieved by DEEPJUDGE in the same settings.
- Abstract(参考訳): 高性能ディープニューラルネットワーク(DNN)のトレーニングは通常、大量のデータセットの収集と強力なコンピューティングリソースの使用を必要とする。
したがって、民間の訓練済みDNNの再配布は、モデル所有者に深刻な経済的損失をもたらす可能性がある。
DNNモデルのオーナシップを保護するため、DNNモデルに秘密情報を埋め込んでモデルオーナシップの存在を検証することでDNN透かし方式が提案されている。
しかし、既存のDNN透かし方式では、モデルが透かしで修正されるため、モデルユーティリティを侵害し、透かし除去攻撃に弱い。
あるいは、被害者モデルを変更することなく被疑者モデルと被害者モデルとの類似性を測定するために、DEEPJUDGEと呼ばれる新しいアプローチが導入された。
しかし、DEEPJUDGEは、被疑者のモデルのアーキテクチャが犠牲者のモデルと同じである場合を検出するためにのみ設計される。
本研究では,被疑モデル構築のために被害者のデータが盗まれる新たな攻撃シナリオを防止するため,deeptasterと呼ばれる新しいdnnフィンガープリント技術を提案する。
DEEPTASTERは、疑似モデルのアーキテクチャが被害者のモデルと異なる場合でも、そのようなデータ盗難攻撃を効果的に検出できる。
この目標を達成するために、DEEPTASTERは摂動のあるいくつかの逆画像を生成し、それらをフーリエ周波数領域に変換し、変換された画像を使用して被疑者モデルで使用されるデータセットを識別する。
直感的には、これらの逆画像は特定のデータセット上に構築されたDNNの特徴をキャプチャするために使用できる。
移動学習,プルーニング,ファインチューニング,データ拡張など,3つのモデルアーキテクチャを持つ3つのデータセット上でのDEPTASTERの検出精度を評価した。
全体的なDEPTASTERの精度は94.95%であり、DEPJUDGEが同じ設定で達成した61.11%よりもはるかに優れている。
関連論文リスト
- DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - TEN-GUARD: Tensor Decomposition for Backdoor Attack Detection in Deep
Neural Networks [3.489779105594534]
本稿では,ネットワークアクティベーションに適用した2つのテンソル分解法によるバックドア検出手法を提案する。
これは、複数のモデルを同時に分析する機能など、既存の検出方法と比較して、多くの利点がある。
その結果,現在の最先端手法よりも,バックドアネットワークを高精度かつ効率的に検出できることがわかった。
論文 参考訳(メタデータ) (2024-01-06T03:08:28Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - On the Adversarial Inversion of Deep Biometric Representations [3.804240190982696]
生体認証サービスプロバイダは、しばしばユーザーの生の生体認証サンプルをリバースエンジニアリングすることは不可能であると主張する。
本稿では、ディープニューラルネットワーク(DNN)埋め込みの具体例について、この主張を考察する。
組込み時のモデルフットプリントを利用して、最初に元のDNNを推定する2段階の攻撃を提案する。
論文 参考訳(メタデータ) (2023-04-12T01:47:11Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - DeepSteal: Advanced Model Extractions Leveraging Efficient Weight
Stealing in Memories [26.067920958354]
Deep Neural Networks(DNN)のプライバシに対する大きな脅威の1つは、モデル抽出攻撃である。
最近の研究によると、ハードウェアベースのサイドチャネル攻撃はDNNモデル(例えばモデルアーキテクチャ)の内部知識を明らかにすることができる。
本稿では,メモリサイドチャネル攻撃の助けを借りてDNN重みを効果的に盗む,高度なモデル抽出攻撃フレームワークであるDeepStealを提案する。
論文 参考訳(メタデータ) (2021-11-08T16:55:45Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - DeepiSign: Invisible Fragile Watermark to Protect the Integrityand
Authenticity of CNN [37.98139322456872]
CNNモデルの完全性と信頼性を確保するために,自己完結型タンパー防止法DeepiSignを提案する。
DeepiSignは、壊れやすい見えない透かしのアイデアを適用して、秘密とそのハッシュ値をCNNモデルに安全に埋め込みます。
理論的解析により,DeepiSignは各層に最大1KBのシークレットを隠蔽し,モデルの精度を最小限に抑えることができた。
論文 参考訳(メタデータ) (2021-01-12T06:42:45Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。