論文の概要: Black-Box Dissector: Towards Erasing-based Hard-Label Model Stealing
Attack
- arxiv url: http://arxiv.org/abs/2105.00623v1
- Date: Mon, 3 May 2021 04:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:01:50.445610
- Title: Black-Box Dissector: Towards Erasing-based Hard-Label Model Stealing
Attack
- Title(参考訳): Black-Box Dissector: 消去型ハードラベルモデルステアリング攻撃を目指して
- Authors: Yixu Wang, Jie Li, Hong Liu, Yongjian Wu, Rongrong Ji
- Abstract要約: モデル盗み攻撃は、被害者のターゲットモデルの能力を盗む代替モデルを作ることを目的としている。
既存の手法のほとんどは、最も現実的なシナリオでは利用できない被害者モデルからの完全な確率出力に依存する。
被害者モデルからハードラベルに隠された情報をマイニングするためのCAM駆動の消去戦略を含む,Emphblack-box Dissectorと呼ばれる新しいハードラベルモデルステアリング手法を提案する。
- 参考スコア(独自算出の注目度): 90.6076825117532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model stealing attack aims to create a substitute model that steals the
ability of the victim target model. However, most of the existing methods
depend on the full probability outputs from the victim model, which is
unavailable in most realistic scenarios. Focusing on the more practical
hard-label setting, due to the lack of rich information in the probability
prediction, the existing methods suffer from catastrophic performance
degradation. Inspired by knowledge distillation, we propose a novel hard-label
model stealing method termed \emph{black-box dissector}, which includes a
CAM-driven erasing strategy to mine the hidden information in hard labels from
the victim model, and a random-erasing-based self-knowledge distillation module
utilizing soft labels from substitute model to avoid overfitting and
miscalibration caused by hard labels. Extensive experiments on four widely-used
datasets consistently show that our method outperforms state-of-the-art
methods, with an improvement of at most $9.92\%$. In addition, experiments on
real-world APIs further prove the effectiveness of our method. Our method also
can invalidate existing defense methods which further demonstrates the
practical potential of our methods.
- Abstract(参考訳): モデル盗み攻撃は、被害者のターゲットモデルの能力を盗む代替モデルを作ることを目的としている。
しかし、既存の手法のほとんどは、最も現実的なシナリオでは利用できない被害者モデルからの完全な確率出力に依存する。
より実用的なハードラベル設定に着目し、確率予測に豊富な情報がないため、既存の手法は破滅的な性能劣化に悩まされる。
知識蒸留に触発された新しいハードラベルモデル盗用法である \emph{black-box dissector} は,被害者モデルからハードラベルに隠された情報をマイニングするカム駆動消去戦略と,ハードラベルによる過剰フィッティングやミスキャリブレーションを避けるために代替モデルからソフトラベルを利用したランダム消去ベースの自己認識蒸留モジュールを含む。
広く使われている4つのデータセットに関する広範囲な実験により、この手法は最先端の手法よりも優れており、少なくとも9.92\%$である。
さらに,実世界のAPI実験により,本手法の有効性がさらに証明された。
また,既存の防衛手法を無効にすることで,本手法の実用化の可能性を示す。
関連論文リスト
- Hide in Plain Sight: Clean-Label Backdoor for Auditing Membership Inference [16.893873979953593]
本研究では,ステルスデータ監査のための新しいクリーンラベルバックドア方式を提案する。
我々のアプローチでは、ターゲットモデルの振る舞いを模倣するシャドウモデルによって生成される最適なトリガを用いる。
提案手法は,ブラックボックスアクセスによるロバストなデータ監査を可能にし,多様なデータセット間で高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2024-11-24T20:56:18Z) - Free Record-Level Privacy Risk Evaluation Through Artifact-Based Methods [6.902279764206365]
本稿では,トレーニング中に利用可能な人工物のみを用いて,リスクの高いサンプルを識別する新しい手法を提案する。
本手法は, サンプルごとの損失トレースを分析し, 脆弱なデータサンプルを同定する。
論文 参考訳(メタデータ) (2024-11-08T18:04:41Z) - Efficient Model Extraction via Boundary Sampling [2.9815109163161204]
本稿では,新しいデータフリーモデル抽出攻撃を提案する。
これは、効率、正確性、有効性の観点から、現在の最先端を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-20T15:56:24Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Data-Free Hard-Label Robustness Stealing Attack [67.41281050467889]
本稿では,Data-Free Hard-Label Robustness Stealing(DFHL-RS)攻撃について紹介する。
ターゲットモデルのハードラベルをクエリするだけで、モデル精度とロバスト性の両方を盗むことができる。
本手法は,AutoAttackに対して77.86%,頑健な39.51%の精度を実現する。
論文 参考訳(メタデータ) (2023-12-10T16:14:02Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Unstoppable Attack: Label-Only Model Inversion via Conditional Diffusion
Model [14.834360664780709]
モデルアタック(MIA)は、深層学習モデルの到達不可能なトレーニングセットからプライベートデータを復元することを目的としている。
そこで本研究では,条件拡散モデル(CDM)を応用したMIA手法を開発し,対象ラベル下でのサンプルの回収を行う。
実験結果から,本手法は従来手法よりも高い精度で類似したサンプルをターゲットラベルに生成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-17T12:14:24Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。