論文の概要: Black-Box Attacks on Sequential Recommenders via Data-Free Model
Extraction
- arxiv url: http://arxiv.org/abs/2109.01165v1
- Date: Wed, 1 Sep 2021 02:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 13:50:58.970008
- Title: Black-Box Attacks on Sequential Recommenders via Data-Free Model
Extraction
- Title(参考訳): データフリーモデル抽出によるシーケンスレコメンダのブラックボックス攻撃
- Authors: Zhenrui Yue, Zhankui He, Huimin Zeng, Julian McAuley
- Abstract要約: モデル抽出がシーケンシャルレコメンデータシステムの重み付けに有効かどうかを検討する。
限定予算合成データ生成と知識蒸留によるAPIに基づくモデル抽出手法を提案する。
- 参考スコア(独自算出の注目度): 1.8065361710947978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate whether model extraction can be used to "steal" the weights of
sequential recommender systems, and the potential threats posed to victims of
such attacks. This type of risk has attracted attention in image and text
classification, but to our knowledge not in recommender systems. We argue that
sequential recommender systems are subject to unique vulnerabilities due to the
specific autoregressive regimes used to train them. Unlike many existing
recommender attackers, which assume the dataset used to train the victim model
is exposed to attackers, we consider a data-free setting, where training data
are not accessible. Under this setting, we propose an API-based model
extraction method via limited-budget synthetic data generation and knowledge
distillation. We investigate state-of-the-art models for sequential
recommendation and show their vulnerability under model extraction and
downstream attacks. We perform attacks in two stages. (1) Model extraction:
given different types of synthetic data and their labels retrieved from a
black-box recommender, we extract the black-box model to a white-box model via
distillation. (2) Downstream attacks: we attack the black-box model with
adversarial samples generated by the white-box recommender. Experiments show
the effectiveness of our data-free model extraction and downstream attacks on
sequential recommenders in both profile pollution and data poisoning settings.
- Abstract(参考訳): 本研究では, モデル抽出が, シーケンシャルレコメンデータシステムの重み付けに有効か, およびそのような攻撃の被害者に対する潜在的脅威について検討する。
このようなリスクは画像やテキストの分類だけでなく、レコメンダシステムに関する知識にも注目されています。
シーケンシャルリコメンデータシステムは、トレーニングに使用される特定の自己回帰型システムのために、ユニークな脆弱性にさらされていると論じている。
被害者モデルのトレーニングに使用されるデータセットが攻撃者に露出していると仮定している既存のリコメンダアタッカーとは異なり、我々は、トレーニングデータがアクセスできないデータフリー設定を検討する。
そこで本研究では,限定予算合成データ生成と知識蒸留によるAPIに基づくモデル抽出手法を提案する。
逐次レコメンデーションのための最先端モデルを調査し,モデル抽出と下流攻撃における脆弱性を示す。
攻撃は2段階に分けて行う。
1) モデル抽出: ブラックボックスレコメンデータから抽出した異なる種類の合成データとそのラベルを, 蒸留によりブラックボックスモデルからホワイトボックスモデルに抽出する。
(2)ダウンストリームアタック:ホワイトボックスレコメンダによって生成された敵対的なサンプルでブラックボックスモデルを攻撃する。
実験は,プロファイル汚染とデータ中毒の双方において,逐次レコメンダに対するデータフリーモデル抽出とダウンストリームアタックの有効性を示す。
関連論文リスト
- Few-shot Model Extraction Attacks against Sequential Recommender Systems [2.372285091200233]
本研究では、シーケンシャルレコメンデータに対する新しい数ショットモデル抽出フレームワークを提案する。
数ショットデータを利用して優れたサロゲートモデルを構築するように設計されている。
3つのデータセットの実験により、提案された数ショットモデル抽出フレームワークが優れたサロゲートモデルを生成することが示された。
論文 参考訳(メタデータ) (2024-11-18T15:57:14Z) - MEAOD: Model Extraction Attack against Object Detectors [45.817537875368956]
モデル抽出攻撃は、攻撃者が被害者モデルに匹敵する機能を持つ代替モデルを複製することを可能にする。
本稿では,オブジェクト検出モデルに対するMEAODと呼ばれる効果的な攻撃手法を提案する。
10kのクエリ予算の所定の条件下で,抽出性能を70%以上達成する。
論文 参考訳(メタデータ) (2023-12-22T13:28:50Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Careful What You Wish For: on the Extraction of Adversarially Trained
Models [2.707154152696381]
最近の機械学習(ML)モデルに対する攻撃は、いくつかのセキュリティとプライバシの脅威を引き起こす。
本稿では,敵の学習したモデルに対する抽出攻撃を評価する枠組みを提案する。
本研究では, 自然学習環境下で得られたモデルよりも, 敵の訓練を受けたモデルの方が抽出攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-07-21T16:04:37Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Data-Free Model Extraction [16.007030173299984]
現在のモデル抽出攻撃は、敵が被害者モデルを訓練するために使用するプロプライエタリなデータに類似した特徴を持つ代理データセットにアクセスすることを前提としている。
本稿では,代用データセットを必要としないデータフリーモデル抽出手法を提案する。
提案したデータフリーモデル抽出手法は,問合せの難易度の高い高精度化を実現する。
論文 参考訳(メタデータ) (2020-11-30T13:37:47Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。