論文の概要: Perturbing Inputs to Prevent Model Stealing
- arxiv url: http://arxiv.org/abs/2005.05823v1
- Date: Tue, 12 May 2020 14:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:53:29.419155
- Title: Perturbing Inputs to Prevent Model Stealing
- Title(参考訳): モデル盗み防止のための入力の摂動
- Authors: Justin Grana
- Abstract要約: クラウドにデプロイされた機械学習サービス(ML-Service)へのインプットの摂動は、モデル盗難攻撃からどのように保護されるかを示す。
線形回帰モデルとロジスティック回帰モデルを用いて、入力に戦略的にノイズを加えると、攻撃者の推定問題が根本的に変化することを示す。
- 参考スコア(独自算出の注目度): 0.5874142059884521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show how perturbing inputs to machine learning services (ML-service)
deployed in the cloud can protect against model stealing attacks. In our
formulation, there is an ML-service that receives inputs from users and returns
the output of the model. There is an attacker that is interested in learning
the parameters of the ML-service. We use the linear and logistic regression
models to illustrate how strategically adding noise to the inputs fundamentally
alters the attacker's estimation problem. We show that even with infinite
samples, the attacker would not be able to recover the true model parameters.
We focus on characterizing the trade-off between the error in the attacker's
estimate of the parameters with the error in the ML-service's output.
- Abstract(参考訳): クラウドにデプロイされた機械学習サービス(ml-service)への入力が、モデル盗み攻撃からいかに保護されるかを示す。
私たちの定式化では、ユーザから入力を受け取り、モデルの出力を返すMLサービスがあります。
MLサービスのパラメータを学ぶことに興味がある攻撃者がいます。
線形回帰モデルとロジスティック回帰モデルを用いて,入力に対するノイズの戦略的付加が攻撃者の推定問題を根本的に変えていることを示す。
我々は、無限のサンプルであっても、攻撃者は真のモデルパラメータを回復できないことを示した。
我々は,攻撃者のパラメータ推定におけるエラーとMLサービス出力のエラーとのトレードオフを特徴付けることに重点を置いている。
関連論文リスト
- Pandora's White-Box: Precise Training Data Detection and Extraction in Large Language Models [4.081098869497239]
我々は,大規模言語モデル(LLM)に対する最先端のプライバシ攻撃を開発する。
事前訓練されたLLMに対する新たなメンバーシップ推論攻撃(MIA)は、ベースライン攻撃の数百倍の精度で実行される。
微調整では, ベースモデルと微調整モデルとの損失率に基づく単純な攻撃により, ほぼ完全なMIA性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-02-26T20:41:50Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - On the Difficulty of Defending Self-Supervised Learning against Model
Extraction [23.497838165711983]
SSL(Self Supervised Learning)は、複雑な入力を明示的なラベルに頼ることなく表現に変換するモデルを訓練するMLパラダイムである。
本稿ではSSLに対するモデル盗難攻撃について検討する。
いくつかの新たな攻撃を構築し、被害者の盗難表現を直接訓練するアプローチがクエリ効率が高く、下流モデルに高い精度で適用可能であることを発見した。
論文 参考訳(メタデータ) (2022-05-16T17:20:44Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - From Zero-Shot Machine Learning to Zero-Day Attack Detection [3.6704226968275258]
ネットワーク侵入検知システム(Network Intrusion Detection Systems)のような特定のアプリケーションでは、モデルが本番環境で観測する可能性が高いすべての攻撃クラスのデータサンプルを取得することは困難である。
本稿では,ゼロデイアタックシナリオの検出において,MLモデルの性能を評価するため,ゼロショット学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-30T06:23:00Z) - MEGEX: Data-Free Model Extraction Attack against Gradient-Based
Explainable AI [1.693045612956149]
機械学習・アズ・ア・サービス(ML)にデプロイされたディープニューラルネットワークは、モデル抽出攻撃の脅威に直面している。
モデル抽出攻撃は知的財産権とプライバシーを侵害する攻撃であり、敵は予測だけを使用してクラウド内の訓練されたモデルを盗む。
本稿では、勾配に基づく説明可能なAIに対するデータフリーモデル抽出攻撃であるMEGEXを提案する。
論文 参考訳(メタデータ) (2021-07-19T14:25:06Z) - Probing Model Signal-Awareness via Prediction-Preserving Input
Minimization [67.62847721118142]
モデルが正しい脆弱性信号を捕捉して予測する能力を評価する。
SAR(Signal-Aware Recall)と呼ばれる新しい指標を用いて,モデルの信号認識を計測する。
その結果,90年代以降のリコールから60年代以降のリコールは,新たな指標で大幅に減少した。
論文 参考訳(メタデータ) (2020-11-25T20:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。