論文の概要: Model Inversion Attack against Transfer Learning: Inverting a Model
without Accessing It
- arxiv url: http://arxiv.org/abs/2203.06570v1
- Date: Sun, 13 Mar 2022 05:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 16:49:51.132084
- Title: Model Inversion Attack against Transfer Learning: Inverting a Model
without Accessing It
- Title(参考訳): トランスファー学習に対するモデル反転攻撃--アクセスしないモデル逆転
- Authors: Dayong Ye and Huiqiang Chen and Shuai Zhou and Tianqing Zhu and Wanlei
Zhou and Shouling Ji
- Abstract要約: トランスファーラーニングは、事前訓練された教師モデルを生成する重要なアプローチである。
転送学習に関する最近の研究により、様々な攻撃に対して脆弱であることが判明した。
モデル反転攻撃に対してトランスファーラーニングが脆弱であるかどうかはまだ不明である。
- 参考スコア(独自算出の注目度): 41.39995986856193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is an important approach that produces pre-trained teacher
models which can be used to quickly build specialized student models. However,
recent research on transfer learning has found that it is vulnerable to various
attacks, e.g., misclassification and backdoor attacks. However, it is still not
clear whether transfer learning is vulnerable to model inversion attacks.
Launching a model inversion attack against transfer learning scheme is
challenging. Not only does the student model hide its structural parameters,
but it is also inaccessible to the adversary. Hence, when targeting a student
model, both the white-box and black-box versions of existing model inversion
attacks fail. White-box attacks fail as they need the target model's
parameters. Black-box attacks fail as they depend on making repeated queries of
the target model. However, they may not mean that transfer learning models are
impervious to model inversion attacks. Hence, with this paper, we initiate
research into model inversion attacks against transfer learning schemes with
two novel attack methods. Both are black-box attacks, suiting different
situations, that do not rely on queries to the target student model. In the
first method, the adversary has the data samples that share the same
distribution as the training set of the teacher model. In the second method,
the adversary does not have any such samples. Experiments show that highly
recognizable data records can be recovered with both of these methods. This
means that even if a model is an inaccessible black-box, it can still be
inverted.
- Abstract(参考訳): 転校学習は、専門的な生徒モデルを簡単に構築するために使用できる、事前学習された教師モデルを生成する重要なアプローチである。
しかし、近年のトランスファーラーニングの研究では、誤分類やバックドア攻撃など、様々な攻撃に弱いことが判明している。
しかし、トランスファーラーニングがモデル反転攻撃に弱いかどうかはまだ不明である。
トランスファー学習スキームに対するモデル逆攻撃の起動は困難である。
生徒モデルは、その構造パラメータを隠すだけでなく、敵にもアクセスできない。
したがって、学生モデルをターゲットにする場合、既存のモデル反転攻撃のホワイトボックス版とブラックボックス版の両方が失敗する。
ホワイトボックス攻撃はターゲットモデルのパラメータを必要とするため失敗する。
ブラックボックス攻撃は、ターゲットモデルの繰り返しクエリに依存するため失敗する。
しかし、転送学習モデルが反転攻撃をモデル化することができないという意味ではないかもしれない。
そこで,本研究では,2つの新しい攻撃手法を用いたトランスファー学習手法に対するモデル逆攻撃の研究を開始する。
どちらもブラックボックス攻撃であり、ターゲットの学生モデルへのクエリに依存しない、異なる状況に適合する。
最初の方法では、相手は教師モデルのトレーニングセットと同じ分布を共有するデータサンプルを持っている。
第2の方法では、敵はそのようなサンプルを持っていない。
実験の結果,この2つの手法で高い認識可能なデータレコードを復元できることがわかった。
つまり、モデルがアクセス不能なブラックボックスであっても、それを反転することができる。
関連論文リスト
- Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Get a Model! Model Hijacking Attack Against Machine Learning Models [30.346469782056406]
本稿では,コンピュータビジョンに基づく機械学習モデル,すなわちモデルハイジャック攻撃に対する新たなトレーニング時間攻撃を提案する。
相手はターゲットモデルをハイジャックして、モデル所有者が気づかずに別のタスクを実行することを目的としている。
以上の結果から,2つのモデルハイジャック攻撃が,モデルユーティリティの低下により,高い攻撃成功率を達成できたことが示唆された。
論文 参考訳(メタデータ) (2021-11-08T11:30:50Z) - Adversarial Transfer Attacks With Unknown Data and Class Overlap [19.901933940805684]
現在の移動攻撃の研究は、攻撃者にとって非現実的な優位性を持っている。
攻撃者および被害者が不完全な設定で利用可能なデータに着目した敵攻撃の転送に関する最初の研究について述べる。
この脅威モデルは、医学、マルウェアなどの応用に関係している。
論文 参考訳(メタデータ) (2021-09-23T03:41:34Z) - Manipulating SGD with Data Ordering Attacks [23.639512087220137]
基礎となるモデルデータセットやアーキテクチャを変更する必要のない,一連のトレーニングタイムアタックを提示する。
特に、アタッカーはトレーニングバッチをリオーダーするだけでモデルの完全性と可用性を損なう可能性がある。
攻撃は、攻撃後数百エポックというモデル性能を低下させるという長期的な影響をもたらす。
論文 参考訳(メタデータ) (2021-04-19T22:17:27Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。