論文の概要: Bucks for Buckets (B4B): Active Defenses Against Stealing Encoders
- arxiv url: http://arxiv.org/abs/2310.08571v2
- Date: Fri, 3 Nov 2023 14:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 17:06:18.270744
- Title: Bucks for Buckets (B4B): Active Defenses Against Stealing Encoders
- Title(参考訳): Bucks for Buckets (B4B): ステアリングエンコーダに対するアクティブディフェンス
- Authors: Jan Dubi\'nski, Stanis{\l}aw Pawlak, Franziska Boenisch, Tomasz
Trzci\'nski, Adam Dziedzic
- Abstract要約: バックス・フォー・バケット (Bucks for Buckets, B4B) は、攻撃中の盗難を防ぐ最初のアクティブ・ディフェンスである。
我々の弁護は、エンコーダの機能を盗もうとする敵に表現が返ってくるという観察に依存している。
- 参考スコア(独自算出の注目度): 16.612182439762737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning as a Service (MLaaS) APIs provide ready-to-use and
high-utility encoders that generate vector representations for given inputs.
Since these encoders are very costly to train, they become lucrative targets
for model stealing attacks during which an adversary leverages query access to
the API to replicate the encoder locally at a fraction of the original training
costs. We propose Bucks for Buckets (B4B), the first active defense that
prevents stealing while the attack is happening without degrading
representation quality for legitimate API users. Our defense relies on the
observation that the representations returned to adversaries who try to steal
the encoder's functionality cover a significantly larger fraction of the
embedding space than representations of legitimate users who utilize the
encoder to solve a particular downstream task.vB4B leverages this to adaptively
adjust the utility of the returned representations according to a user's
coverage of the embedding space. To prevent adaptive adversaries from eluding
our defense by simply creating multiple user accounts (sybils), B4B also
individually transforms each user's representations. This prevents the
adversary from directly aggregating representations over multiple accounts to
create their stolen encoder copy. Our active defense opens a new path towards
securely sharing and democratizing encoders over public APIs.
- Abstract(参考訳): 機械学習・アズ・ア・サービス(MLaaS)APIは、所定の入力に対してベクトル表現を生成する準備ができている高ユーティリティエンコーダを提供する。
これらのエンコーダはトレーニングに非常にコストがかかるため、敵がAPIへのクエリアクセスを活用して、オリジナルのトレーニングコストのごく一部でエンコーダをローカルに複製するモデル盗難攻撃の収益目標となる。
我々はbucks for buckets (b4b)を提案する。これは、正当なapiユーザの表現品質を損なうことなく攻撃が行われている間、盗みを防止する最初のアクティブディフェンスである。
我々の弁護は、エンコーダの機能を盗もうとする敵に返却された表現が、エンコーダを使用して特定の下流タスクを解決する正当なユーザの表現よりも、埋め込み空間のかなり大きな部分をカバーしているという観察に依存している。vb4bは、これを利用して、エンコーダが返された表現の効用を、ユーザの埋め込み空間の範囲に応じて適応的に調整する。
B4Bは、複数のユーザアカウント(シビル)を作成するだけで、適応的な敵が防御を損なうのを防ぐため、各ユーザの表現を個別に変換する。
これにより、敵は複数のアカウント上の表現を直接集約して盗んだエンコーダコピーを作成することができない。
私たちのactive defenseは、公開apiよりもエンコーダをセキュアに共有し、民主化する新たな道を開きます。
関連論文リスト
- Pre-trained Encoder Inference: Revealing Upstream Encoders In Downstream Machine Learning Services [10.367966878807714]
トレーニング済みのエンコーダはオンラインで簡単にアクセスでき、ダウンストリーム機械学習(ML)サービスを迅速に構築できる。
この攻撃は、下流のMLサービスの後ろに隠されたエンコーダに対してプライバシー上の脅威を投稿する。
論文 参考訳(メタデータ) (2024-08-05T20:27:54Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - CorruptEncoder: Data Poisoning based Backdoor Attacks to Contrastive
Learning [71.25518220297639]
コントラスト学習は、ラベル付き事前学習データセットを使用して汎用エンコーダを訓練する。
DPBAはトレーニング前のデータセットに有毒な入力を注入してエンコーダをバックドアにする。
CorruptEncoderは、有毒な入力を生成するための新しい攻撃戦略を導入し、攻撃効率を最大化するために理論誘導方式を使用している。
我々の防衛はDPBAの有効性を低下させるが,エンコーダの実用性を犠牲にし,新たな防衛の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2022-11-15T15:48:28Z) - PoisonedEncoder: Poisoning the Unlabeled Pre-training Data in
Contrastive Learning [69.70602220716718]
コントラスト学習のためのデータ中毒攻撃であるPoisonedEncoderを提案する。
特に、攻撃者は未ラベルの事前訓練データに慎重に毒を盛った入力を注入する。
我々は,PoisonedEncoderに対する5つの防御効果を評価し,前処理が1つ,内処理が3つ,後処理が1つであった。
論文 参考訳(メタデータ) (2022-05-13T00:15:44Z) - Can't Steal? Cont-Steal! Contrastive Stealing Attacks Against Image
Encoders [23.2869445054295]
自己教師付き表現学習技術は、下流のタスクに不利なリッチな特徴に画像をエンコードする。
専用モデル設計と大量のリソースの要求は、潜在的なモデル盗難攻撃のリスクに画像エンコーダを露出させる。
本研究では,コントラスト学習に基づく攻撃であるCont-Stealを提案する。
論文 参考訳(メタデータ) (2022-01-19T10:27:28Z) - StolenEncoder: Stealing Pre-trained Encoders [62.02156378126672]
我々は、事前訓練された画像エンコーダを盗むStolenEncoderと呼ばれる最初の攻撃を提案する。
以上の結果から,StolenEncoderが盗んだエンコーダは,ターゲットエンコーダと同じような機能を持つことがわかった。
論文 参考訳(メタデータ) (2022-01-15T17:04:38Z) - Prototype-supervised Adversarial Network for Targeted Attack of Deep
Hashing [65.32148145602865]
ディープハッシュネットワークは、敵の例に弱い。
ProS-GAN(ProS-GAN)の提案
我々の知る限りでは、これはディープハッシュネットワークを攻撃する最初の世代ベースの方法である。
論文 参考訳(メタデータ) (2021-05-17T00:31:37Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Double Backpropagation for Training Autoencoders against Adversarial
Attack [15.264115499966413]
本稿では,オートエンコーダに対する敵攻撃に着目した。
本稿では,VAE や DRAW などのオートエンコーダを確保するために,二重バックプロパゲーション (DBP) を採用することを提案する。
論文 参考訳(メタデータ) (2020-03-04T05:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。