論文の概要: Pre-trained Encoder Inference: Revealing Upstream Encoders In Downstream Machine Learning Services
- arxiv url: http://arxiv.org/abs/2408.02814v1
- Date: Mon, 5 Aug 2024 20:27:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 15:38:41.234901
- Title: Pre-trained Encoder Inference: Revealing Upstream Encoders In Downstream Machine Learning Services
- Title(参考訳): 事前トレーニングされたエンコーダ推論:ダウンストリーム機械学習サービスにおけるアップストリームエンコーダの探索
- Authors: Shaopeng Fu, Xuexue Sun, Ke Qing, Tianhang Zheng, Di Wang,
- Abstract要約: トレーニング済みのエンコーダはオンラインで簡単にアクセスでき、ダウンストリーム機械学習(ML)サービスを迅速に構築できる。
この攻撃は、下流のMLサービスの後ろに隠されたエンコーダに対してプライバシー上の脅威を投稿する。
- 参考スコア(独自算出の注目度): 10.367966878807714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though pre-trained encoders can be easily accessed online to build downstream machine learning (ML) services quickly, various attacks have been designed to compromise the security and privacy of these encoders. While most attacks target encoders on the upstream side, it remains unknown how an encoder could be threatened when deployed in a downstream ML service. This paper unveils a new vulnerability: the Pre-trained Encoder Inference (PEI) attack, which posts privacy threats toward encoders hidden behind downstream ML services. By only providing API accesses to a targeted downstream service and a set of candidate encoders, the PEI attack can infer which encoder is secretly used by the targeted service based on candidate ones. We evaluate the attack performance of PEI against real-world encoders on three downstream tasks: image classification, text classification, and text-to-image generation. Experiments show that the PEI attack succeeds in revealing the hidden encoder in most cases and seldom makes mistakes even when the hidden encoder is not in the candidate set. We also conducted a case study on one of the most recent vision-language models, LLaVA, to illustrate that the PEI attack is useful in assisting other ML attacks such as adversarial attacks. The code is available at https://github.com/fshp971/encoder-inference.
- Abstract(参考訳): トレーニング済みのエンコーダはオンラインで簡単にアクセスでき、ダウンストリーム機械学習(ML)サービスを迅速に構築できるが、これらのエンコーダのセキュリティとプライバシを侵害するように設計されている。
ほとんどのアタックは上流側のエンコーダをターゲットにしているが、下流のMLサービスにデプロイすると、エンコーダが脅かされるかは不明だ。
この攻撃は、下流のMLサービスの後ろに隠されたエンコーダに対してプライバシー上の脅威を投稿する。
ターゲットとする下流サービスと候補エンコーダのセットにのみAPIアクセスを提供することで、PEI攻撃はターゲットサービスによってどのエンコーダが秘密裏に使用されているかを推測することができる。
我々は,画像分類,テキスト分類,テキスト・ツー・イメージ生成という3つの下流タスクにおいて,実世界のエンコーダに対するPEIの攻撃性能を評価する。
実験により、PEI攻撃は、ほとんどのケースにおいて隠れエンコーダを明らかにすることに成功し、隠れエンコーダが候補セットに含まれていない場合でも、ほとんど間違いを犯さないことが示された。
直近の視覚言語モデルであるLLaVAのケーススタディも実施し、PEI攻撃は敵攻撃などの他のML攻撃を支援するのに有用であることを示した。
コードはhttps://github.com/fshp971/encoder-inferenceで入手できる。
関連論文リスト
- DeDe: Detecting Backdoor Samples for SSL Encoders via Decoders [6.698677477097004]
自己教師付き学習(SSL)は、大量のラベルのないデータで高品質な上流エンコーダのトレーニングに広く利用されている。
バックドア攻撃は トレーニングデータの ごく一部を汚染するだけ
本稿では,被害者エンコーダの共起によるバックドアマッピングの活性化を検知し,入力をトリガーする新しい検出機構であるDeDeを提案する。
論文 参考訳(メタデータ) (2024-11-25T07:26:22Z) - GhostEncoder: Stealthy Backdoor Attacks with Dynamic Triggers to
Pre-trained Encoders in Self-supervised Learning [15.314217530697928]
自己教師付き学習 (SSL) は、大量の未ラベル画像を利用した事前訓練された画像エンコーダの訓練に関係している。
GhostEncoderはSSLに対する最初のダイナミックなバックドア攻撃である。
論文 参考訳(メタデータ) (2023-10-01T09:39:27Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - REaaS: Enabling Adversarially Robust Downstream Classifiers via Robust
Encoder as a Service [67.0982378001551]
サービスプロバイダがエンコーダを事前トレーニングして、クラウドサービスAPIとしてデプロイする方法を示します。
クライアントはクラウドサービスAPIに問い合わせて、トレーニング/テスト入力のフィーチャーベクタを取得する。
私たちは、クライアントが下流の分類器の堅牢性を証明できるように、クラウドサービスが2つのAPIを提供する必要があることを示しています。
論文 参考訳(メタデータ) (2023-01-07T17:40:11Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - CorruptEncoder: Data Poisoning based Backdoor Attacks to Contrastive
Learning [71.25518220297639]
コントラスト学習は、ラベル付き事前学習データセットを使用して汎用エンコーダを訓練する。
DPBAはトレーニング前のデータセットに有毒な入力を注入してエンコーダをバックドアにする。
CorruptEncoderは、有毒な入力を生成するための新しい攻撃戦略を導入し、攻撃効率を最大化するために理論誘導方式を使用している。
我々の防衛はDPBAの有効性を低下させるが,エンコーダの実用性を犠牲にし,新たな防衛の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2022-11-15T15:48:28Z) - PoisonedEncoder: Poisoning the Unlabeled Pre-training Data in
Contrastive Learning [69.70602220716718]
コントラスト学習のためのデータ中毒攻撃であるPoisonedEncoderを提案する。
特に、攻撃者は未ラベルの事前訓練データに慎重に毒を盛った入力を注入する。
我々は,PoisonedEncoderに対する5つの防御効果を評価し,前処理が1つ,内処理が3つ,後処理が1つであった。
論文 参考訳(メタデータ) (2022-05-13T00:15:44Z) - StolenEncoder: Stealing Pre-trained Encoders [62.02156378126672]
我々は、事前訓練された画像エンコーダを盗むStolenEncoderと呼ばれる最初の攻撃を提案する。
以上の結果から,StolenEncoderが盗んだエンコーダは,ターゲットエンコーダと同じような機能を持つことがわかった。
論文 参考訳(メタデータ) (2022-01-15T17:04:38Z) - BadEncoder: Backdoor Attacks to Pre-trained Encoders in Self-Supervised
Learning [29.113263683850015]
コンピュータビジョンにおける自己教師型学習は、大量のラベルのない画像または(画像、テキスト)ペアを使用して、画像エンコーダを事前訓練することを目的としている。
我々は,自己教師型学習の最初のバックドア攻撃であるBadEncoderを提案する。
論文 参考訳(メタデータ) (2021-08-01T02:22:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。