論文の概要: First to Possess His Statistics: Data-Free Model Extraction Attack on
Tabular Data
- arxiv url: http://arxiv.org/abs/2109.14857v1
- Date: Thu, 30 Sep 2021 05:30:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:45:09.905444
- Title: First to Possess His Statistics: Data-Free Model Extraction Attack on
Tabular Data
- Title(参考訳): まず、彼の統計を所有する:表データに対するデータフリーなモデル抽出攻撃
- Authors: Masataka Tasumi, Kazuki Iwahana, Naoto Yanai, Katsunari Shishido,
Toshiya Shimizu, Yuji Higuchi, Ikuya Morikawa, Jun Yajima
- Abstract要約: 本稿では,実用的なデータフリー環境下でのTEMPESTと呼ばれる新しいモデル抽出攻撃を提案する。
実験により、我々の攻撃は以前の攻撃と同等のパフォーマンスを達成できることが示された。
本稿では,TEMPESTを実世界において医療診断実験により実施する可能性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model extraction attacks are a kind of attacks where an adversary obtains a
machine learning model whose performance is comparable with one of the victim
model through queries and their results. This paper presents a novel model
extraction attack, named TEMPEST, applicable on tabular data under a practical
data-free setting. Whereas model extraction is more challenging on tabular data
due to normalization, TEMPEST no longer needs initial samples that previous
attacks require; instead, it makes use of publicly available statistics to
generate query samples. Experiments show that our attack can achieve the same
level of performance as the previous attacks. Moreover, we identify that the
use of mean and variance as statistics for query generation and the use of the
same normalization process as the victim model can improve the performance of
our attack. We also discuss a possibility whereby TEMPEST is executed in the
real world through an experiment with a medical diagnosis dataset. We plan to
release the source code for reproducibility and a reference to subsequent
works.
- Abstract(参考訳): モデル抽出攻撃(英: model extraction attack)とは、敵がクエリとその結果を通じて被害者モデルに匹敵するパフォーマンスを持つ機械学習モデルを取得する攻撃の一種である。
本稿では,実用的なデータフリー設定下で,表データに適用可能な新しいモデル抽出攻撃である tempest を提案する。
正規化による表データの抽出がより困難であるのに対して、TEMPESTは以前の攻撃に必要な初期サンプルを必要としない。
実験により、我々の攻撃は以前の攻撃と同等のパフォーマンスを達成できることが示された。
さらに,クエリ生成の統計として平均と分散を用いることと,被害者モデルと同じ正規化プロセスを使用することにより,攻撃性能が向上することを示す。
また,医療診断データセットを用いてTEMPESTを実世界で実施する可能性についても論じる。
再現性とその後の作業への参照のためにソースコードをリリースする予定です。
関連論文リスト
- MEAOD: Model Extraction Attack against Object Detectors [45.817537875368956]
モデル抽出攻撃は、攻撃者が被害者モデルに匹敵する機能を持つ代替モデルを複製することを可能にする。
本稿では,オブジェクト検出モデルに対するMEAODと呼ばれる効果的な攻撃手法を提案する。
10kのクエリ予算の所定の条件下で,抽出性能を70%以上達成する。
論文 参考訳(メタデータ) (2023-12-22T13:28:50Z) - Low-Cost High-Power Membership Inference Attacks [17.128537906121355]
メンバシップ推論攻撃は、機械学習モデルのトレーニングに特定のデータポイントを使用したかどうかを検出することを目的としている。
近年の強力な攻撃は計算コストが高く、様々な条件下では不整合性があり、実際のプライバシーリスク評価には信頼性が低い。
我々は,計算オーバーヘッドを最小限に抑えながら,人口データとモデルのトレーニングデータとを正確に区別する,新しい,効率的で堅牢なメンバシップ推論攻撃(RMIA)を設計する。
論文 参考訳(メタデータ) (2023-12-06T03:18:49Z) - SCME: A Self-Contrastive Method for Data-free and Query-Limited Model
Extraction Attack [18.998300969035885]
モデル抽出は、代替モデル上で逆例を生成することによって、ターゲットモデルを騙す。
本稿では,偽データの合成におけるクラス間およびクラス内多様性を考慮した,SCME という新しいデータフリーモデル抽出手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T10:41:45Z) - OMG-ATTACK: Self-Supervised On-Manifold Generation of Transferable
Evasion Attacks [17.584752814352502]
Evasion Attacks (EA) は、入力データを歪ませることで、トレーニングされたニューラルネットワークの堅牢性をテストするために使用される。
本稿では, 自己教師型, 計算的経済的な手法を用いて, 対逆例を生成する手法を提案する。
我々の実験は、この手法が様々なモデル、目に見えないデータカテゴリ、さらには防御されたモデルで有効であることを一貫して実証している。
論文 参考訳(メタデータ) (2023-10-05T17:34:47Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [57.49901512739509]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
攻撃者はデータ取得とラベル付けの両方のコストを節約しないことが多い。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Membership Inference Attacks against Language Models via Neighbourhood
Comparison [45.086816556309266]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングデータにデータサンプルが存在するかどうかを予測することを目的としている。
近年の研究では、類似データに基づいてトレーニングされた参照モデルとモデルスコアを比較した参照ベースの攻撃は、MIAの性能を大幅に向上することを示した。
より現実的なシナリオでそれらの性能を調査し、参照モデルのトレーニングに使用されるデータ分布に関して非常に脆弱であることを示す。
論文 参考訳(メタデータ) (2023-05-29T07:06:03Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。