論文の概要: REaaS: Enabling Adversarially Robust Downstream Classifiers via Robust
Encoder as a Service
- arxiv url: http://arxiv.org/abs/2301.02905v1
- Date: Sat, 7 Jan 2023 17:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 18:20:30.612300
- Title: REaaS: Enabling Adversarially Robust Downstream Classifiers via Robust
Encoder as a Service
- Title(参考訳): REaaS:ロバストエンコーダ・アズ・ア・サービスによる逆ロバストな下流の分類器の実現
- Authors: Wenjie Qu and Jinyuan Jia and Neil Zhenqiang Gong
- Abstract要約: サービスプロバイダがエンコーダを事前トレーニングして、クラウドサービスAPIとしてデプロイする方法を示します。
クライアントはクラウドサービスAPIに問い合わせて、トレーニング/テスト入力のフィーチャーベクタを取得する。
私たちは、クライアントが下流の分類器の堅牢性を証明できるように、クラウドサービスが2つのAPIを提供する必要があることを示しています。
- 参考スコア(独自算出の注目度): 67.0982378001551
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Encoder as a service is an emerging cloud service. Specifically, a service
provider first pre-trains an encoder (i.e., a general-purpose feature
extractor) via either supervised learning or self-supervised learning and then
deploys it as a cloud service API. A client queries the cloud service API to
obtain feature vectors for its training/testing inputs when training/testing
its classifier (called downstream classifier). A downstream classifier is
vulnerable to adversarial examples, which are testing inputs with carefully
crafted perturbation that the downstream classifier misclassifies. Therefore,
in safety and security critical applications, a client aims to build a robust
downstream classifier and certify its robustness guarantees against adversarial
examples.
What APIs should the cloud service provide, such that a client can use any
certification method to certify the robustness of its downstream classifier
against adversarial examples while minimizing the number of queries to the
APIs? How can a service provider pre-train an encoder such that clients can
build more certifiably robust downstream classifiers? We aim to answer the two
questions in this work. For the first question, we show that the cloud service
only needs to provide two APIs, which we carefully design, to enable a client
to certify the robustness of its downstream classifier with a minimal number of
queries to the APIs. For the second question, we show that an encoder
pre-trained using a spectral-norm regularization term enables clients to build
more robust downstream classifiers.
- Abstract(参考訳): Encoder as a Serviceは、新しいクラウドサービスだ。
具体的には、サービスプロバイダはまず、教師付き学習または自己教師付き学習のいずれかを通じてエンコーダ(すなわち汎用機能抽出器)を事前トレーニングし、次にクラウドサービスapiとしてデプロイする。
クライアントはクラウドサービスAPIに問い合わせて、その分類器(下流分類器と呼ばれる)をトレーニング/テストする際に、その入力をトレーニング/テストするための特徴ベクトルを取得する。
ダウンストリーム分類器は、ダウンストリーム分類器が誤分類した摂動を慎重に作って入力をテストする逆例に弱い。
したがって、安全およびセキュリティクリティカルなアプリケーションにおいて、クライアントは、堅牢な下流分類器を構築し、その堅牢性を保証することを目的としている。
クライアントが認証方法を使って、APIに対するクエリ数を最小化しながら、ダウンストリームの分類器の堅牢性を証明できるように、クラウドサービスが提供すべきAPIは何ですか?
サービスプロバイダがエンコーダを事前にトレーニングすれば、クライアントはより堅牢な下流分類器を構築できるのだろうか?
私たちはこの作品の2つの質問に答えるつもりです。
最初の質問では、クライアントがAPIに対するクエリ数が最小限であるダウンストリーム分類器の堅牢性を証明できるようにするために、クラウドサービスが2つのAPIのみを提供する必要があることを示しています。
第2の質問は、スペクトルノルム正規化項を用いて事前学習されたエンコーダによって、クライアントはより堅牢な下流分類器を構築できることを示す。
関連論文リスト
- Pre-trained Encoder Inference: Revealing Upstream Encoders In Downstream Machine Learning Services [10.367966878807714]
トレーニング済みのエンコーダはオンラインで簡単にアクセスでき、ダウンストリーム機械学習(ML)サービスを迅速に構築できる。
この攻撃は、下流のMLサービスの後ろに隠されたエンコーダに対してプライバシー上の脅威を投稿する。
論文 参考訳(メタデータ) (2024-08-05T20:27:54Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - Customer Sentiment Analysis using Weak Supervision for Customer-Agent
Chat [0.0]
顧客チャットにおける感情分析は、社内データセットの弱さを利用して行う。
我々は、弱い監督力を用いた感情分類器として、事前学習言語モデル(LM)RoBERTaを微調整する。
論文 参考訳(メタデータ) (2021-11-29T00:58:22Z) - Honest-but-Curious Nets: Sensitive Attributes of Private Inputs can be
Secretly Coded into the Entropy of Classifiers' Outputs [1.0742675209112622]
非センシティブなターゲット属性の分類のために訓練されたディープニューラルネットワークは、入力データのセンシティブな属性を明らかにすることができる。
深層分類器は,ユーザの入力データの機密属性を,推論時に秘密裏に符号化するように訓練できることを示す。
論文 参考訳(メタデータ) (2021-05-25T16:27:57Z) - Simple Transparent Adversarial Examples [65.65977217108659]
本研究は,ロバスト性を評価するための簡易な方法として,秘密の埋め込みと透明な敵の例を紹介した。
その結果、ハイリスクなアプリケーションにAPIが使用されるという深刻な脅威が生じる。
論文 参考訳(メタデータ) (2021-05-20T11:54:26Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Robust and Verifiable Information Embedding Attacks to Deep Neural
Networks via Error-Correcting Codes [81.85509264573948]
ディープラーニングの時代、ユーザは、サードパーティの機械学習ツールを使用して、ディープニューラルネットワーク(DNN)分類器をトレーニングすることが多い。
情報埋め込み攻撃では、攻撃者は悪意のあるサードパーティの機械学習ツールを提供する。
本研究では,一般的なポストプロセッシング手法に対して検証可能で堅牢な情報埋め込み攻撃を設計することを目的とする。
論文 参考訳(メタデータ) (2020-10-26T17:42:42Z) - Denoised Smoothing: A Provable Defense for Pretrained Classifiers [101.67773468882903]
本稿では,事前訓練された画像分類器を$ell_p$の敵攻撃に対して確実に防御する手法を提案する。
この方法では、公開ビジョンAPIプロバイダやユーザは、トレーニング済みの非ロバスト分類サービスを、確実に堅牢なものにシームレスに変換することができる。
論文 参考訳(メタデータ) (2020-03-04T06:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。