論文の概要: Beyond Model Extraction: Imitation Attack for Black-Box NLP APIs
- arxiv url: http://arxiv.org/abs/2108.13873v1
- Date: Sun, 29 Aug 2021 10:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 14:34:16.964793
- Title: Beyond Model Extraction: Imitation Attack for Black-Box NLP APIs
- Title(参考訳): モデル抽出を超えて: Black-Box NLP APIの模倣攻撃
- Authors: Qiongkai Xu, Xuanli He, Lingjuan Lyu, Lizhen Qu, Gholamreza Haffari
- Abstract要約: 攻撃者は、教師なしのドメイン適応とマルチヴィクティ・アンサンブルによって、被害者を追い越す可能性があることを示す。
本研究では,攻撃者が非教師なしのドメイン適応とマルチヴィクティ・アンサンブルによって,被害者を追い越す可能性を示す第一歩を踏み出した。
- 参考スコア(独自算出の注目度): 36.258615610948524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine-learning-as-a-service (MLaaS) has attracted millions of users to
their outperforming sophisticated models. Although published as black-box APIs,
the valuable models behind these services are still vulnerable to imitation
attacks. Recently, a series of works have demonstrated that attackers manage to
steal or extract the victim models. Nonetheless, none of the previous stolen
models can outperform the original black-box APIs. In this work, we take the
first step of showing that attackers could potentially surpass victims via
unsupervised domain adaptation and multi-victim ensemble. Extensive experiments
on benchmark datasets and real-world APIs validate that the imitators can
succeed in outperforming the original black-box models. We consider this as a
milestone in the research of imitation attack, especially on NLP APIs, as the
superior performance could influence the defense or even publishing strategy of
API providers.
- Abstract(参考訳): マシンラーニング・アズ・ア・サービス(MLaaS)は、数百万のユーザを惹きつけ、優れたモデルを実現している。
ブラックボックスapiとして公開されたが、これらのサービスの背後にある貴重なモデルは、依然として模倣攻撃に対して脆弱である。
最近、一連の研究により、攻撃者が被害者のモデルを盗んだり、抽出したりすることに成功した。
それでも、それまでの盗難モデルは、元のブラックボックスAPIより優れているものはない。
本研究は,攻撃者が非教師なしドメイン適応とマルチヴィクティアンサンブルにより,被害者を追い越す可能性を示す第一歩である。
ベンチマークデータセットと実世界のapiに関する広範囲な実験は、模倣者が元のブラックボックスモデルよりも優れたパフォーマンスを実現できることを検証している。
これは、特にNLP APIにおける模倣攻撃の研究におけるマイルストーンであり、優れたパフォーマンスがAPIプロバイダの防衛や公開戦略に影響を与える可能性があると考えている。
関連論文リスト
- Beyond Labeling Oracles: What does it mean to steal ML models? [57.49901512739509]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
攻撃者はデータ取得とラベル付けの両方のコストを節約しないことが多い。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - DREAM: Domain-free Reverse Engineering Attributes of Black-box Model [51.37041886352823]
ブラックボックス対象モデルの属性をドメインに依存しないリバースエンジニアリングの新しい問題を提案する。
対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために,ドメインに依存しないモデルを学ぶ。
論文 参考訳(メタデータ) (2023-07-20T16:25:58Z) - Reinforcement Learning-Based Black-Box Model Inversion Attacks [23.30144908939099]
モデル反転攻撃は、機械学習モデルのトレーニングに使用されるプライベートデータを再構築する。
パブリックデータセットから知識を抽出するためにGAN(Generative Adversarial Networks)を利用したホワイトボックスモデルインバージョン攻撃が注目されている。
強化学習に基づくブラックボックスモデルインバージョン攻撃を提案する。
論文 参考訳(メタデータ) (2023-04-10T14:41:16Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - On the Difficulty of Defending Self-Supervised Learning against Model
Extraction [23.497838165711983]
SSL(Self Supervised Learning)は、複雑な入力を明示的なラベルに頼ることなく表現に変換するモデルを訓練するMLパラダイムである。
本稿ではSSLに対するモデル盗難攻撃について検討する。
いくつかの新たな攻撃を構築し、被害者の盗難表現を直接訓練するアプローチがクエリ効率が高く、下流モデルに高い精度で適用可能であることを発見した。
論文 参考訳(メタデータ) (2022-05-16T17:20:44Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Killing Two Birds with One Stone: Stealing Model and Inferring Attribute
from BERT-based APIs [26.38350928431939]
本稿では,BERTベースのAPIを事実上盗むことができる効果的なモデル抽出攻撃を提案する。
BERTベースのAPIで使用されるトレーニングデータのセンシティブな属性を明らかにするための効果的な推論攻撃を開発する。
論文 参考訳(メタデータ) (2021-05-23T10:38:23Z) - Model Extraction and Adversarial Transferability, Your BERT is
Vulnerable! [11.425692676973332]
敵がBERTベースのAPIサービスを、事前知識とクエリに制限のある複数のベンチマークデータセットで盗む方法を示す。
また, 抽出したモデルが, 被害者モデルに対する高度に転送可能な敵攻撃につながることを示す。
私たちの研究は、被害者モデルと攻撃モデルの間にアーキテクチャ上のミスマッチがある場合でも、BERTベースのAPIサービスの潜在的な脆弱性がまだ保持されていることを示しています。
論文 参考訳(メタデータ) (2021-03-18T04:23:21Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Imitation Attacks and Defenses for Black-box Machine Translation Systems [86.92681013449682]
ブラックボックス機械翻訳(MT)システムは高い商業価値を持ち、エラーはコストがかかる。
MTシステムはモノリンガル文を問合せし,その出力を模倣する訓練モデルを用いて盗むことができることを示す。
本稿では,模倣モデルの最適化を誤指示するために,翻訳出力を変更するディフェンスを提案する。
論文 参考訳(メタデータ) (2020-04-30T17:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。