論文の概要: Can't Steal? Cont-Steal! Contrastive Stealing Attacks Against Image
Encoders
- arxiv url: http://arxiv.org/abs/2201.07513v1
- Date: Wed, 19 Jan 2022 10:27:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 19:54:23.470795
- Title: Can't Steal? Cont-Steal! Contrastive Stealing Attacks Against Image
Encoders
- Title(参考訳): 盗めないの?
コントステール!
画像エンコーダに対するコントラスト盗み攻撃
- Authors: Zeyang Sha and Xinlei He and Ning Yu and Michael Backes and Yang Zhang
- Abstract要約: 教師なし表現学習技術は、下流のタスクに不利なリッチな特徴に画像をエンコードする。
専用モデル設計と大量の計算資源の要求は、潜在的なモデル盗難攻撃のリスクに対して画像エンコーダを露出させる。
本研究では,コントラスト学習に基づく攻撃であるCont-Stealを提案する。
- 参考スコア(独自算出の注目度): 23.2869445054295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised representation learning techniques have been developing rapidly
to make full use of unlabeled images. They encode images into rich features
that are oblivious to downstream tasks. Behind its revolutionary representation
power, the requirements for dedicated model designs and a massive amount of
computation resources expose image encoders to the risks of potential model
stealing attacks -- a cheap way to mimic the well-trained encoder performance
while circumventing the demanding requirements. Yet conventional attacks only
target supervised classifiers given their predicted labels and/or posteriors,
which leaves the vulnerability of unsupervised encoders unexplored. In this
paper, we first instantiate the conventional stealing attacks against encoders
and demonstrate their severer vulnerability compared with downstream
classifiers. To better leverage the rich representation of encoders, we further
propose Cont-Steal, a contrastive-learning-based attack, and validate its
improved stealing effectiveness in various experiment settings. As a takeaway,
we appeal to our community's attention to the intellectual property protection
of representation learning techniques, especially to the defenses against
encoder stealing attacks like ours.
- Abstract(参考訳): 教師なし表現学習技術はラベルなしの画像をフル活用するために急速に開発されている。
イメージを下流のタスクに不利なリッチな機能にエンコードする。
その革命的な表現力の背後にあるのは、専用モデル設計の要件と大量の計算リソースが、イメージエンコーダを潜在的なモデル盗難攻撃のリスクにさらしていることだ。
しかし、従来の攻撃は、予測されたラベルと/または後方を考慮し、教師なしエンコーダの脆弱性を残している教師付き分類器のみを標的とする。
本稿では,まず,エンコーダに対する従来の盗難攻撃をインスタンス化し,下流の分類器と比較して深刻な脆弱性を示す。
エンコーダのリッチな表現をよりよく活用するために、コントラスト学習に基づく攻撃であるcont-stealを提案し、様々な実験環境での盗みの有効性を検証する。
そこで我々は,表現学習技術の知的財産保護,特に我々のような攻撃をエンコーダが盗むことに対する防御に,コミュニティの注意を喚起する。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Bucks for Buckets (B4B): Active Defenses Against Stealing Encoders [16.612182439762737]
バックス・フォー・バケット (Bucks for Buckets, B4B) は、攻撃中の盗難を防ぐ最初のアクティブ・ディフェンスである。
我々の弁護は、エンコーダの機能を盗もうとする敵に表現が返ってくるという観察に依存している。
論文 参考訳(メタデータ) (2023-10-12T17:56:53Z) - Downstream-agnostic Adversarial Examples [66.8606539786026]
AdvEncoderは、事前訓練されたエンコーダに基づいて、ダウンストリームに依存しない普遍的敵の例を生成するための最初のフレームワークである。
従来の逆数例とは異なり、事前訓練されたエンコーダは分類ラベルではなく特徴ベクトルを出力するのみである。
その結果、攻撃者はトレーニング済みのデータセットやダウンストリームのデータセットを知らずに、ダウンストリームのタスクを攻撃できることがわかった。
論文 参考訳(メタデータ) (2023-07-23T10:16:47Z) - Robustness of Unsupervised Representation Learning without Labels [92.90480374344777]
モデルとタスクに依存しない,ラベルのない,教師なしのロバストネス尺度のファミリーを提案する。
本研究は, 線形プローブによる検証を行い, MOCOv2の場合, 対向トレーニングの結果が3倍の精度で得られたことを示す。
論文 参考訳(メタデータ) (2022-10-08T18:03:28Z) - PoisonedEncoder: Poisoning the Unlabeled Pre-training Data in
Contrastive Learning [69.70602220716718]
コントラスト学習のためのデータ中毒攻撃であるPoisonedEncoderを提案する。
特に、攻撃者は未ラベルの事前訓練データに慎重に毒を盛った入力を注入する。
我々は,PoisonedEncoderに対する5つの防御効果を評価し,前処理が1つ,内処理が3つ,後処理が1つであった。
論文 参考訳(メタデータ) (2022-05-13T00:15:44Z) - SSLGuard: A Watermarking Scheme for Self-supervised Learning Pre-trained
Encoders [9.070481370120905]
プリトレーニングエンコーダのための最初の透かしアルゴリズムであるSSLGuardを提案する。
SSLGuardはウォーターマーク注入と検証に有効であり、モデル盗難やその他のウォーターマーク除去攻撃に対して堅牢である。
論文 参考訳(メタデータ) (2022-01-27T17:41:54Z) - StolenEncoder: Stealing Pre-trained Encoders [62.02156378126672]
我々は、事前訓練された画像エンコーダを盗むStolenEncoderと呼ばれる最初の攻撃を提案する。
以上の結果から,StolenEncoderが盗んだエンコーダは,ターゲットエンコーダと同じような機能を持つことがわかった。
論文 参考訳(メタデータ) (2022-01-15T17:04:38Z) - BadEncoder: Backdoor Attacks to Pre-trained Encoders in Self-Supervised
Learning [29.113263683850015]
コンピュータビジョンにおける自己教師型学習は、大量のラベルのない画像または(画像、テキスト)ペアを使用して、画像エンコーダを事前訓練することを目的としている。
我々は,自己教師型学習の最初のバックドア攻撃であるBadEncoderを提案する。
論文 参考訳(メタデータ) (2021-08-01T02:22:31Z) - Adversarial Attacks on Binary Image Recognition Systems [78.78811131936622]
本研究では,二分法(黒と白)画像分類モデルに対する敵対攻撃について検討する。
カラー画像とグレースケール画像とは対照的に、バイナリ画像に対する攻撃の探索空間は極めて制限されている。
バイナリイメージの分類を騙すために設計された,SCARと呼ばれる新しい攻撃アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-22T14:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。