論文の概要: DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations
- arxiv url: http://arxiv.org/abs/2205.06504v1
- Date: Fri, 13 May 2022 08:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 21:10:12.026798
- Title: DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations
- Title(参考訳): DualCF:非現実的説明から効率的なモデル抽出攻撃
- Authors: Yongjie Wang, Hangwei Qian, Chunyan Miao
- Abstract要約: クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
- 参考スコア(独自算出の注目度): 57.46134660974256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud service providers have launched Machine-Learning-as-a-Service (MLaaS)
platforms to allow users to access large-scale cloudbased models via APIs. In
addition to prediction outputs, these APIs can also provide other information
in a more human-understandable way, such as counterfactual explanations (CF).
However, such extra information inevitably causes the cloud models to be more
vulnerable to extraction attacks which aim to steal the internal functionality
of models in the cloud. Due to the black-box nature of cloud models, however, a
vast number of queries are inevitably required by existing attack strategies
before the substitute model achieves high fidelity. In this paper, we propose a
novel simple yet efficient querying strategy to greatly enhance the querying
efficiency to steal a classification model. This is motivated by our
observation that current querying strategies suffer from decision boundary
shift issue induced by taking far-distant queries and close-to-boundary CFs
into substitute model training. We then propose DualCF strategy to circumvent
the above issues, which is achieved by taking not only CF but also
counterfactual explanation of CF (CCF) as pairs of training samples for the
substitute model. Extensive and comprehensive experimental evaluations are
conducted on both synthetic and real-world datasets. The experimental results
favorably illustrate that DualCF can produce a high-fidelity model with fewer
queries efficiently and effectively.
- Abstract(参考訳): クラウドサービスプロバイダがMLaaS(Machine-Learning-as-a-Service)プラットフォームをローンチした。
予測出力に加えて、これらのAPIは、対実的説明(CF)など、より人間的に理解可能な方法で他の情報を提供することもできる。
しかしながら、このような余分な情報は、クラウドモデルの内部機能を盗むことを目的とした、抽出攻撃に対して、必然的にクラウドモデルがより脆弱になる。
しかし、クラウドモデルのブラックボックスの性質から、代替モデルが高い忠実度に達する前に、既存の攻撃戦略によって必然的に大量のクエリが必要となる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,シンプルで効率的なクエリ手法を提案する。
これは,現在の問合せ戦略が決定境界シフト問題に苦しむのを,代用モデルトレーニングに遠距離問合せと近距離cfsを取り入れることに起因している。
そこで我々は,CF だけでなく,CF (CCF) を代替モデルのトレーニングサンプルのペアとして扱うことで実現した,上記の問題を回避するための DualCF 戦略を提案する。
合成データと実世界のデータセットの両方で、広範囲で包括的な実験評価が行われる。
実験結果から,DualCFはより少ないクエリで効率よく高忠実度モデルを生成できることを示す。
関連論文リスト
- Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Adversarial Collaborative Filtering for Free [27.949683060138064]
CF(Collaborative Filtering)は、ユーザが関心のある項目を見つけるのに役立つ。
既存の方法はノイズの多いデータ問題に悩まされ、推奨の質に悪影響を及ぼす。
本稿では, 計算コストを犠牲にすることなく, 対向学習を行う簡易かつ効果的な手法として, シャープネス対応協調フィルタリング(CF)を提案する。
論文 参考訳(メタデータ) (2023-08-20T19:25:38Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。