論文の概要: DeepCore: Simple Fingerprint Construction for Differentiating Homologous and Piracy Models
- arxiv url: http://arxiv.org/abs/2411.00380v1
- Date: Fri, 01 Nov 2024 05:53:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:48:22.796790
- Title: DeepCore: Simple Fingerprint Construction for Differentiating Homologous and Piracy Models
- Title(参考訳): DeepCore: ホモロジーモデルと海賊モデルの区別のための単純なフィンガープリント構築
- Authors: Haifeng Sun, Lan Zhang, Xiang-Yang Li,
- Abstract要約: 既存の作業では、ウォーターマーキングやフィンガープリントをモデル化する試みが数多く行われているが、同様の構造やトレーニングデータセットでトレーニングされたモデルを無視している。
ブラックボックス海賊版モデルを効率よくクエリして、モデルを誤識別することなく、モデル著作権を保護するという課題を強調します。
本稿では,モデルの信頼度がモデル決定境界から予測されたサンプルの距離と正の相関関係があることを,DeepCoreと呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 15.852660362042885
- License:
- Abstract: As intellectual property rights, the copyright protection of deep models is becoming increasingly important. Existing work has made many attempts at model watermarking and fingerprinting, but they have ignored homologous models trained with similar structures or training datasets. We highlight challenges in efficiently querying black-box piracy models to protect model copyrights without misidentifying homologous models. To address these challenges, we propose a novel method called DeepCore, which discovers that the classification confidence of the model is positively correlated with the distance of the predicted sample from the model decision boundary and piracy models behave more similarly at high-confidence classified sample points. Then DeepCore constructs core points far away from the decision boundary by optimizing the predicted confidence of a few sample points and leverages behavioral discrepancies between piracy and homologous models to identify piracy models. Finally, we design different model identification methods, including two similarity-based methods and a clustering-based method to identify piracy models using models' predictions of core points. Extensive experiments show the effectiveness of DeepCore in identifying various piracy models, achieving lower missed and false identification rates, and outperforming state-of-the-art methods.
- Abstract(参考訳): 知的財産権として、深層モデルの著作権保護がますます重要になっている。
既存の研究はウォーターマーキングやフィンガープリントのモデル化に多くの試みをしてきたが、同様の構造やトレーニングデータセットで訓練されたホモロジクスモデルを無視している。
ブラックボックス海賊版モデルを効率よくクエリして、同種のモデルを誤識別することなく、モデル著作権を保護するという課題を強調した。
これらの課題に対処するため、DeepCoreと呼ばれる新しい手法を提案し、モデルの分類信頼度がモデル決定境界から予測されたサンプルの距離と正に相関していること、そして高信頼の分類されたサンプルポイントにおいて海賊版モデルの方がよりよく振る舞うことを発見した。
次に、DeepCoreは、いくつかのサンプルポイントの予測された信頼度を最適化することで、決定境界から遠く離れたコアポイントを構築し、海賊行為モデルとホモロジーモデルの間の振る舞いの相違を利用して海賊行為モデルを識別する。
最後に、2つの類似性に基づく手法とクラスタリングに基づく手法を含む異なるモデル同定手法を設計し、コアポイントのモデルの予測を用いて海賊行為モデルを識別する。
大規模な実験は、DeepCoreが様々な海賊モデルを識別し、ミス率と偽の識別率を低くし、最先端の手法より優れていることを示す。
関連論文リスト
- Seeds Don't Lie: An Adaptive Watermarking Framework for Computer Vision
Models [44.80560808267494]
保護モデルに固有の振る舞いを活かして,保護モデルに透かしを施す適応フレームワークを提案する。
この透かしは、同じユニークな振る舞いを持つ抽出されたモデルを検出するために使用され、保護されたモデルのIPを無許可で使用することを示す。
この枠組みは,(1)未知のモデル抽出攻撃,(2)メソッドを実行する抽出モデル(例えば,重み付け)に対して頑健であることを示す。
論文 参考訳(メタデータ) (2022-11-24T14:48:40Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - DeepHider: A Multi-module and Invisibility Watermarking Scheme for
Language Model [0.0]
本稿では,モデル分類モジュールを置換し,モデル全体の微調整を行う新たな脅威を提案する。
私たちは、盗難の所有権ステートメントを防ぐために、タンパー保護やトレーサビリティといったブロックチェーンの特性を使用します。
実験の結果,提案手法は100%の透かし検証精度でオーナシップの検証に成功した。
論文 参考訳(メタデータ) (2022-08-09T11:53:24Z) - DynaMarks: Defending Against Deep Learning Model Extraction Using
Dynamic Watermarking [3.282282297279473]
ディープラーニング(DL)モデルの機能は、モデル抽出によって盗むことができる。
本稿では,DLモデルの知的財産権(IP)を保護するため,DynaMarksと呼ばれる新しい透かし手法を提案する。
論文 参考訳(メタデータ) (2022-07-27T06:49:39Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。