論文の概要: Learnability Lock: Authorized Learnability Control Through Adversarial
Invertible Transformations
- arxiv url: http://arxiv.org/abs/2202.03576v1
- Date: Thu, 3 Feb 2022 17:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 22:17:37.512481
- Title: Learnability Lock: Authorized Learnability Control Through Adversarial
Invertible Transformations
- Title(参考訳): learnability lock: 逆可逆変換による学習可能性制御の認可
- Authors: Weiqi Peng, Jinghui Chen
- Abstract要約: 本稿では,特殊なキーを持つ特定のデータセット上でモデルの学習可能性を制御するための「学習可能性ロック」という新しい概念を紹介し,検討する。
本稿では、画像から画像へのマッピングとみなすことができる対向的非可逆変換を提案し、データサンプルをわずかに修正し、視覚的特徴の無視可能な機械学習モデルによって「学習不能」になるようにする。
これにより、検出やリバースエンジニアリングが困難でありながら、単純な逆変換で学習性を簡単に復元できる。
- 参考スコア(独自算出の注目度): 9.868558660605993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Owing much to the revolution of information technology, the recent progress
of deep learning benefits incredibly from the vastly enhanced access to data
available in various digital formats. However, in certain scenarios, people may
not want their data being used for training commercial models and thus studied
how to attack the learnability of deep learning models. Previous works on
learnability attack only consider the goal of preventing unauthorized
exploitation on the specific dataset but not the process of restoring the
learnability for authorized cases. To tackle this issue, this paper introduces
and investigates a new concept called "learnability lock" for controlling the
model's learnability on a specific dataset with a special key. In particular,
we propose adversarial invertible transformation, that can be viewed as a
mapping from image to image, to slightly modify data samples so that they
become "unlearnable" by machine learning models with negligible loss of visual
features. Meanwhile, one can unlock the learnability of the dataset and train
models normally using the corresponding key. The proposed learnability lock
leverages class-wise perturbation that applies a universal transformation
function on data samples of the same label. This ensures that the learnability
can be easily restored with a simple inverse transformation while remaining
difficult to be detected or reverse-engineered. We empirically demonstrate the
success and practicability of our method on visual classification tasks.
- Abstract(参考訳): 情報技術の革命により、近年のディープラーニングの進歩は、様々なデジタルフォーマットで利用可能なデータへのアクセスが大幅に強化されたことにより、信じられないほど恩恵を受けます。
しかし、特定のシナリオでは、商用モデルのトレーニングに自分のデータを使用したくない場合があり、ディープラーニングモデルの学習可能性への攻撃方法を研究している。
学習可能性攻撃に関する以前の研究は、特定のデータセットで不正な利用を防止するという目標のみを考慮し、許可されたケースで学習可能性を取り戻すプロセスではない。
この問題に取り組むため,本稿では,特別キーを用いたデータセット上でモデルの学習可能性を制御するための「学習可能性ロック」と呼ばれる新しい概念を紹介し,検討する。
特に、画像から画像へのマッピングとみなすことができる対向的非可逆変換を提案し、データサンプルをわずかに修正し、視覚的特徴の無視可能な機械学習モデルによって「学習不能」になるようにする。
一方、データセットとトレーニングモデルの学習性を、対応するキーを使ってアンロックすることができる。
提案した学習性ロックは、同一ラベルのデータサンプルに普遍変換関数を適用するクラスワイド摂動を利用する。
これにより、検出やリバースエンジニアリングが困難でありながら、単純な逆変換で学習性を簡単に復元できる。
視覚分類タスクにおける手法の成功と実践性を実証的に実証した。
関連論文リスト
- Learn What You Want to Unlearn: Unlearning Inversion Attacks against Machine Unlearning [16.809644622465086]
我々は、機械学習が未学習データの機密内容を漏洩させる範囲を理解するために、最初の調査を行う。
機械学習・アズ・ア・サービス・セッティングの下で、未学習サンプルの特徴とラベル情報を明らかにするアンラーニング・インバージョン・アタックを提案する。
実験結果から,提案攻撃は未学習データのセンシティブな情報を明らかにすることができることが示された。
論文 参考訳(メタデータ) (2024-04-04T06:37:46Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Corrective Machine Unlearning [22.342035149807923]
我々は、未知の操作が学習モデルに与える影響を緩和する問題として、矯正機械学習を定式化する。
削除セットを使わずにスクラッチから再学習するなど、既存の未学習手法の多くは、有効な修正未学習のために、操作されたデータの大部分を識別する必要がある。
選択的シナプス減衰法(Selective Synaptic Dampening)は, 操作したサンプルのごく一部で, 有害な効果を学習することなく, 限られた成功を達成している。
論文 参考訳(メタデータ) (2024-02-21T18:54:37Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Robust Machine Learning by Transforming and Augmenting Imperfect
Training Data [6.928276018602774]
この論文は、現代の機械学習のいくつかのデータ感度を探求する。
まず、トレーニングデータで測定された事前の人間の識別をMLが符号化するのを防ぐ方法について論じる。
次に、トレーニング中に予測忠実度を提供するが、デプロイ時に信頼性が低い突発的特徴を含むデータから学習する問題について論じる。
論文 参考訳(メタデータ) (2023-12-19T20:49:28Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Gated Self-supervised Learning For Improving Supervised Learning [1.784933900656067]
本稿では,複数の局所化可能な拡張法とゲーティング手法を組み合わせることで,画像分類のための自己教師型学習手法を提案する。
我々のアプローチでは、回転に加え、フリップとシャッフルのチャネル拡張を使用し、モデルがデータからリッチな特徴を学習することができる。
論文 参考訳(メタデータ) (2023-01-14T09:32:12Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。