論文の概要: Unlearnable Clusters: Towards Label-agnostic Unlearnable Examples
- arxiv url: http://arxiv.org/abs/2301.01217v1
- Date: Sat, 31 Dec 2022 04:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 15:25:51.155564
- Title: Unlearnable Clusters: Towards Label-agnostic Unlearnable Examples
- Title(参考訳): unlearnable cluster: ラベルに依存しないunlearnable例に向けて
- Authors: Jiaming Zhang, Xingjun Ma, Qi Yi, Jitao Sang, Yugang Jiang, Yaowei
Wang, Changsheng Xu
- Abstract要約: 非学習可能な例(UE)は、機械学習モデルの不正なトレーニングを防ぐことができる。
ラベルに依存しない未知の例を生成するために,Unlearnable Clusters (UCs) と呼ばれる新しい手法を提案する。
私たちは、さまざまなデータセット、ターゲットモデル、さらには商用プラットフォームであるMicrosoft AzureとBaidu PaddlePaddleを使って、さまざまな設定で提案されたアプローチの有効性を実証的に検証します。
- 参考スコア(独自算出の注目度): 128.25509832644025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing interest in developing unlearnable examples (UEs) against
visual privacy leaks on the Internet. UEs are training samples added with
invisible but unlearnable noise, which have been found can prevent unauthorized
training of machine learning models. UEs typically are generated via a bilevel
optimization framework with a surrogate model to remove (minimize) errors from
the original samples, and then applied to protect the data against unknown
target models. However, existing UE generation methods all rely on an ideal
assumption called label-consistency, where the hackers and protectors are
assumed to hold the same label for a given sample. In this work, we propose and
promote a more practical label-agnostic setting, where the hackers may exploit
the protected data quite differently from the protectors. E.g., a m-class
unlearnable dataset held by the protector may be exploited by the hacker as a
n-class dataset. Existing UE generation methods are rendered ineffective in
this challenging setting. To tackle this challenge, we present a novel
technique called Unlearnable Clusters (UCs) to generate label-agnostic
unlearnable examples with cluster-wise perturbations. Furthermore, we propose
to leverage VisionandLanguage Pre-trained Models (VLPMs) like CLIP as the
surrogate model to improve the transferability of the crafted UCs to diverse
domains. We empirically verify the effectiveness of our proposed approach under
a variety of settings with different datasets, target models, and even
commercial platforms Microsoft Azure and Baidu PaddlePaddle.
- Abstract(参考訳): インターネット上の視覚的プライバシー漏洩に対して、未学習の例(UE)を開発することへの関心が高まっている。
UEは目に見えないが学習不可能なノイズを付加したトレーニングサンプルであり、機械学習モデルの不正なトレーニングを防ぐことができる。
UEは通常、元のサンプルからエラーを除去(最小化)し、未知のターゲットモデルからデータを保護するための代理モデルを備えた双方向最適化フレームワークを介して生成される。
しかし、既存のUE生成手法はすべてラベル一貫性と呼ばれる理想的な仮定に依存しており、ハッカーとプロテクターは与えられたサンプルに対して同じラベルを保持すると仮定される。
本研究では,ハッカーが保護者とは異なる保護されたデータを活用できる,より実用的なラベルに依存しない環境を提案する。
例えば、プロテクタが保持するmクラスアンリーナブルデータセットは、ハッカーによってnクラスデータセットとして悪用される可能性がある。
既存のUE生成方法は、この困難な環境では非効率にレンダリングされる。
この課題に取り組むために,クラスタ毎の摂動を伴うラベル非依存な非学習例を生成する,unlearnable cluster(ucs)と呼ばれる新しい手法を提案する。
さらに、CLIPのようなVisionandLanguage Pre-trained Model(VLPM)を代理モデルとして活用して、工芸UCの多様なドメインへの転送性を向上させることを提案する。
さまざまなデータセットやターゲットモデル,さらにはMicrosoft AzureやBaidu PaddlePaddleといった商用プラットフォームで,さまざまな設定で提案したアプローチの有効性を実証的に検証しています。
関連論文リスト
- Diverse Teacher-Students for Deep Safe Semi-Supervised Learning under Class Mismatch [35.42630035488178]
海外教師学生(textbfDTS)という新しい枠組みを導入する。
教師-学生モデルと教師-学生モデルの両方をラベルなしのサンプルで訓練することにより、DTSは見知らぬクラスの検出を同時に改善しながら、見知らぬクラスの分類を強化することができる。
論文 参考訳(メタデータ) (2024-05-25T06:54:43Z) - Efficient Availability Attacks against Supervised and Contrastive
Learning Simultaneously [26.018467038778006]
本稿では、SLとCLの両方に有効な攻撃を得るために、教師付きエラー最小化やフレームワークにおける対照的なデータ拡張を提案する。
提案したAUE攻撃とAAP攻撃は,SLアルゴリズムとCLアルゴリズムにまたがる最先端の非学習性を実現し,消費電力を低減し,現実の応用の可能性を示す。
論文 参考訳(メタデータ) (2024-02-06T14:05:05Z) - Unlearnable Examples For Time Series [33.83340340399046]
未学習の例(UEs)とは、Deep Neural Networks(DNN)に学習できないように修正されたトレーニングサンプルを指す。
DNNによる不正なトレーニングから時系列データを保護するための最初のUE生成手法を提案する。
論文 参考訳(メタデータ) (2024-02-03T04:48:47Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Mind Your Clever Neighbours: Unsupervised Person Re-identification via
Adaptive Clustering Relationship Modeling [19.532602887109668]
教師なし人物再識別(Re-ID)は、教師付きRe-IDモデルのスケーラビリティ問題を解決する可能性から注目されている。
既存の教師なし手法の多くは反復的なクラスタリング機構を採用しており、教師なしクラスタリングによって生成された擬似ラベルに基づいてネットワークを訓練している。
高品質な擬似ラベルを生成し,クラスタリングエラーの影響を軽減するために,教師なしのRe-IDのための新しいクラスタリング関係モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-03T10:55:07Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。