論文の概要: Beyond Model Extraction: Imitation Attack for Black-Box NLP APIs
- arxiv url: http://arxiv.org/abs/2108.13873v1
- Date: Sun, 29 Aug 2021 10:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 14:34:16.964793
- Title: Beyond Model Extraction: Imitation Attack for Black-Box NLP APIs
- Title(参考訳): モデル抽出を超えて: Black-Box NLP APIの模倣攻撃
- Authors: Qiongkai Xu, Xuanli He, Lingjuan Lyu, Lizhen Qu, Gholamreza Haffari
- Abstract要約: 攻撃者は、教師なしのドメイン適応とマルチヴィクティ・アンサンブルによって、被害者を追い越す可能性があることを示す。
本研究では,攻撃者が非教師なしのドメイン適応とマルチヴィクティ・アンサンブルによって,被害者を追い越す可能性を示す第一歩を踏み出した。
- 参考スコア(独自算出の注目度): 36.258615610948524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine-learning-as-a-service (MLaaS) has attracted millions of users to
their outperforming sophisticated models. Although published as black-box APIs,
the valuable models behind these services are still vulnerable to imitation
attacks. Recently, a series of works have demonstrated that attackers manage to
steal or extract the victim models. Nonetheless, none of the previous stolen
models can outperform the original black-box APIs. In this work, we take the
first step of showing that attackers could potentially surpass victims via
unsupervised domain adaptation and multi-victim ensemble. Extensive experiments
on benchmark datasets and real-world APIs validate that the imitators can
succeed in outperforming the original black-box models. We consider this as a
milestone in the research of imitation attack, especially on NLP APIs, as the
superior performance could influence the defense or even publishing strategy of
API providers.
- Abstract(参考訳): マシンラーニング・アズ・ア・サービス(MLaaS)は、数百万のユーザを惹きつけ、優れたモデルを実現している。
ブラックボックスapiとして公開されたが、これらのサービスの背後にある貴重なモデルは、依然として模倣攻撃に対して脆弱である。
最近、一連の研究により、攻撃者が被害者のモデルを盗んだり、抽出したりすることに成功した。
それでも、それまでの盗難モデルは、元のブラックボックスAPIより優れているものはない。
本研究は,攻撃者が非教師なしドメイン適応とマルチヴィクティアンサンブルにより,被害者を追い越す可能性を示す第一歩である。
ベンチマークデータセットと実世界のapiに関する広範囲な実験は、模倣者が元のブラックボックスモデルよりも優れたパフォーマンスを実現できることを検証している。
これは、特にNLP APIにおける模倣攻撃の研究におけるマイルストーンであり、優れたパフォーマンスがAPIプロバイダの防衛や公開戦略に影響を与える可能性があると考えている。
関連論文リスト
- Can't Hide Behind the API: Stealing Black-Box Commercial Embedding Models [47.13042922690422]
OpenAIやCohereといった企業は,ユーザが使用料を支払わなければならないAPIを通じてアクセスされる,競合する埋め込みモデルを開発した。
我々の知る限りでは、これらのモデルを商用APIから得られたテキスト埋め込みペア上でローカルモデルをトレーニングすることで、検索を"スティル"するための最初の取り組みを提示する。
論文 参考訳(メタデータ) (2024-06-13T17:40:56Z) - Stealing Part of a Production Language Model [99.33245067682984]
生産言語モデルから正確な非自明な情報を抽出する最初のモデルステーリング攻撃を導入する。
20ドル以下で、我々の攻撃はOpenAIのAdaおよびBabage言語モデル全体のプロジェクションマトリックスを抽出する。
論文 参考訳(メタデータ) (2024-03-11T11:46:12Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - DREAM: Domain-free Reverse Engineering Attributes of Black-box Model [51.37041886352823]
ブラックボックス対象モデルの属性をドメインに依存しないリバースエンジニアリングの新しい問題を提案する。
対象のブラックボックスモデルの属性を未知のトレーニングデータで推測するために,ドメインに依存しないモデルを学ぶ。
論文 参考訳(メタデータ) (2023-07-20T16:25:58Z) - Reinforcement Learning-Based Black-Box Model Inversion Attacks [23.30144908939099]
モデル反転攻撃は、機械学習モデルのトレーニングに使用されるプライベートデータを再構築する。
パブリックデータセットから知識を抽出するためにGAN(Generative Adversarial Networks)を利用したホワイトボックスモデルインバージョン攻撃が注目されている。
強化学習に基づくブラックボックスモデルインバージョン攻撃を提案する。
論文 参考訳(メタデータ) (2023-04-10T14:41:16Z) - Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence [34.35162562625252]
ブラックボックスの敵攻撃は、機械学習モデルを妥協する強力な可能性を示している。
証明可能な保証付きブラックボックス攻撃の新たなパラダイムについて検討する。
この新しいブラックボックス攻撃は、機械学習モデルの重大な脆弱性を露呈する。
論文 参考訳(メタデータ) (2023-04-10T01:12:09Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - Model Extraction and Adversarial Transferability, Your BERT is
Vulnerable! [11.425692676973332]
敵がBERTベースのAPIサービスを、事前知識とクエリに制限のある複数のベンチマークデータセットで盗む方法を示す。
また, 抽出したモデルが, 被害者モデルに対する高度に転送可能な敵攻撃につながることを示す。
私たちの研究は、被害者モデルと攻撃モデルの間にアーキテクチャ上のミスマッチがある場合でも、BERTベースのAPIサービスの潜在的な脆弱性がまだ保持されていることを示しています。
論文 参考訳(メタデータ) (2021-03-18T04:23:21Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Imitation Attacks and Defenses for Black-box Machine Translation Systems [86.92681013449682]
ブラックボックス機械翻訳(MT)システムは高い商業価値を持ち、エラーはコストがかかる。
MTシステムはモノリンガル文を問合せし,その出力を模倣する訓練モデルを用いて盗むことができることを示す。
本稿では,模倣モデルの最適化を誤指示するために,翻訳出力を変更するディフェンスを提案する。
論文 参考訳(メタデータ) (2020-04-30T17:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。