論文の概要: First to Possess His Statistics: Data-Free Model Extraction Attack on
Tabular Data
- arxiv url: http://arxiv.org/abs/2109.14857v1
- Date: Thu, 30 Sep 2021 05:30:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:45:09.905444
- Title: First to Possess His Statistics: Data-Free Model Extraction Attack on
Tabular Data
- Title(参考訳): まず、彼の統計を所有する:表データに対するデータフリーなモデル抽出攻撃
- Authors: Masataka Tasumi, Kazuki Iwahana, Naoto Yanai, Katsunari Shishido,
Toshiya Shimizu, Yuji Higuchi, Ikuya Morikawa, Jun Yajima
- Abstract要約: 本稿では,実用的なデータフリー環境下でのTEMPESTと呼ばれる新しいモデル抽出攻撃を提案する。
実験により、我々の攻撃は以前の攻撃と同等のパフォーマンスを達成できることが示された。
本稿では,TEMPESTを実世界において医療診断実験により実施する可能性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model extraction attacks are a kind of attacks where an adversary obtains a
machine learning model whose performance is comparable with one of the victim
model through queries and their results. This paper presents a novel model
extraction attack, named TEMPEST, applicable on tabular data under a practical
data-free setting. Whereas model extraction is more challenging on tabular data
due to normalization, TEMPEST no longer needs initial samples that previous
attacks require; instead, it makes use of publicly available statistics to
generate query samples. Experiments show that our attack can achieve the same
level of performance as the previous attacks. Moreover, we identify that the
use of mean and variance as statistics for query generation and the use of the
same normalization process as the victim model can improve the performance of
our attack. We also discuss a possibility whereby TEMPEST is executed in the
real world through an experiment with a medical diagnosis dataset. We plan to
release the source code for reproducibility and a reference to subsequent
works.
- Abstract(参考訳): モデル抽出攻撃(英: model extraction attack)とは、敵がクエリとその結果を通じて被害者モデルに匹敵するパフォーマンスを持つ機械学習モデルを取得する攻撃の一種である。
本稿では,実用的なデータフリー設定下で,表データに適用可能な新しいモデル抽出攻撃である tempest を提案する。
正規化による表データの抽出がより困難であるのに対して、TEMPESTは以前の攻撃に必要な初期サンプルを必要としない。
実験により、我々の攻撃は以前の攻撃と同等のパフォーマンスを達成できることが示された。
さらに,クエリ生成の統計として平均と分散を用いることと,被害者モデルと同じ正規化プロセスを使用することにより,攻撃性能が向上することを示す。
また,医療診断データセットを用いてTEMPESTを実世界で実施する可能性についても論じる。
再現性とその後の作業への参照のためにソースコードをリリースする予定です。
関連論文リスト
- On the Adversarial Risk of Test Time Adaptation: An Investigation into Realistic Test-Time Data Poisoning [49.17494657762375]
テスト時間適応(TTA)は、テストデータを使用して推論段階でモデルの重みを更新し、一般化を強化する。
既存の研究では、TTAが逆方向検体で更新されると、良性検体の性能が低下することが示されている。
そこで本研究では, 良性試料にアクセスすることなく, 有毒試料を効果的かつ現実的に生成する手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T01:29:19Z) - Parameter Matching Attack: Enhancing Practical Applicability of Availability Attacks [8.225819874406238]
PMA(Matching Attack)と呼ばれる新しいアベイラビリティー・アプローチを提案する。
PMAは、データの一部を摂動できる場合に機能する最初のアベイラビリティ攻撃である。
PMAは既存の手法よりも優れており、トレーニングデータの一部が摂動した場合に顕著なモデル性能劣化を達成できることを示す。
論文 参考訳(メタデータ) (2024-07-02T17:15:12Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - MEAOD: Model Extraction Attack against Object Detectors [45.817537875368956]
モデル抽出攻撃は、攻撃者が被害者モデルに匹敵する機能を持つ代替モデルを複製することを可能にする。
本稿では,オブジェクト検出モデルに対するMEAODと呼ばれる効果的な攻撃手法を提案する。
10kのクエリ予算の所定の条件下で,抽出性能を70%以上達成する。
論文 参考訳(メタデータ) (2023-12-22T13:28:50Z) - Low-Cost High-Power Membership Inference Attacks [15.240271537329534]
メンバーシップ推論攻撃は、特定のデータポイントがモデルのトレーニングに使用されたかどうかを検出することを目的としている。
我々は,計算オーバーヘッドの少ない,堅牢なメンバシップ推論攻撃を行うための新しい統計的試験を設計する。
RMIAは、機械学習における実用的かつ正確なデータプライバシーリスク評価の基礎を成している。
論文 参考訳(メタデータ) (2023-12-06T03:18:49Z) - SCME: A Self-Contrastive Method for Data-free and Query-Limited Model
Extraction Attack [18.998300969035885]
モデル抽出は、代替モデル上で逆例を生成することによって、ターゲットモデルを騙す。
本稿では,偽データの合成におけるクラス間およびクラス内多様性を考慮した,SCME という新しいデータフリーモデル抽出手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T10:41:45Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Membership Inference Attacks against Language Models via Neighbourhood
Comparison [45.086816556309266]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングデータにデータサンプルが存在するかどうかを予測することを目的としている。
近年の研究では、類似データに基づいてトレーニングされた参照モデルとモデルスコアを比較した参照ベースの攻撃は、MIAの性能を大幅に向上することを示した。
より現実的なシナリオでそれらの性能を調査し、参照モデルのトレーニングに使用されるデータ分布に関して非常に脆弱であることを示す。
論文 参考訳(メタデータ) (2023-05-29T07:06:03Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。