論文の概要: DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations
- arxiv url: http://arxiv.org/abs/2205.06504v1
- Date: Fri, 13 May 2022 08:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 21:10:12.026798
- Title: DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations
- Title(参考訳): DualCF:非現実的説明から効率的なモデル抽出攻撃
- Authors: Yongjie Wang, Hangwei Qian, Chunyan Miao
- Abstract要約: クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
- 参考スコア(独自算出の注目度): 57.46134660974256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud service providers have launched Machine-Learning-as-a-Service (MLaaS)
platforms to allow users to access large-scale cloudbased models via APIs. In
addition to prediction outputs, these APIs can also provide other information
in a more human-understandable way, such as counterfactual explanations (CF).
However, such extra information inevitably causes the cloud models to be more
vulnerable to extraction attacks which aim to steal the internal functionality
of models in the cloud. Due to the black-box nature of cloud models, however, a
vast number of queries are inevitably required by existing attack strategies
before the substitute model achieves high fidelity. In this paper, we propose a
novel simple yet efficient querying strategy to greatly enhance the querying
efficiency to steal a classification model. This is motivated by our
observation that current querying strategies suffer from decision boundary
shift issue induced by taking far-distant queries and close-to-boundary CFs
into substitute model training. We then propose DualCF strategy to circumvent
the above issues, which is achieved by taking not only CF but also
counterfactual explanation of CF (CCF) as pairs of training samples for the
substitute model. Extensive and comprehensive experimental evaluations are
conducted on both synthetic and real-world datasets. The experimental results
favorably illustrate that DualCF can produce a high-fidelity model with fewer
queries efficiently and effectively.
- Abstract(参考訳): クラウドサービスプロバイダがMLaaS(Machine-Learning-as-a-Service)プラットフォームをローンチした。
予測出力に加えて、これらのAPIは、対実的説明(CF)など、より人間的に理解可能な方法で他の情報を提供することもできる。
しかしながら、このような余分な情報は、クラウドモデルの内部機能を盗むことを目的とした、抽出攻撃に対して、必然的にクラウドモデルがより脆弱になる。
しかし、クラウドモデルのブラックボックスの性質から、代替モデルが高い忠実度に達する前に、既存の攻撃戦略によって必然的に大量のクエリが必要となる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,シンプルで効率的なクエリ手法を提案する。
これは,現在の問合せ戦略が決定境界シフト問題に苦しむのを,代用モデルトレーニングに遠距離問合せと近距離cfsを取り入れることに起因している。
そこで我々は,CF だけでなく,CF (CCF) を代替モデルのトレーニングサンプルのペアとして扱うことで実現した,上記の問題を回避するための DualCF 戦略を提案する。
合成データと実世界のデータセットの両方で、広範囲で包括的な実験評価が行われる。
実験結果から,DualCFはより少ないクエリで効率よく高忠実度モデルを生成できることを示す。
関連論文リスト
- Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via
Selective Entropy Distillation [60.17626806243389]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - A PSO Based Method to Generate Actionable Counterfactuals for High
Dimensional Data [3.0320603363468845]
粒子群最適化(PSO)に基づく効率的で実用的な逆ファクトアル(CF)生成法について述べる。
これらの特徴を組み込んだアルゴリズムが提案され、生成されたCFの近接特性と疎性特性をより制御できる。
論文 参考訳(メタデータ) (2023-09-30T18:08:00Z) - Adversarial Collaborative Filtering for Free [27.949683060138064]
CF(Collaborative Filtering)は、ユーザが関心のある項目を見つけるのに役立つ。
既存の方法はノイズの多いデータ問題に悩まされ、推奨の質に悪影響を及ぼす。
本稿では, 計算コストを犠牲にすることなく, 対向学習を行う簡易かつ効果的な手法として, シャープネス対応協調フィルタリング(CF)を提案する。
論文 参考訳(メタデータ) (2023-08-20T19:25:38Z) - Using Explanations to Guide Models [68.64377323216817]
モデルガイダンスは、時にはモデルパフォーマンスも改善できることを示す。
本研究では,物体の特徴に着目したモデルの有効性を示す新しいエネルギー損失を提案する。
また、バウンディングボックスアノテーションのわずかな部分でも、これらのゲインが達成可能であることも示しています。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。