論文の概要: GENIU: A Restricted Data Access Unlearning for Imbalanced Data
- arxiv url: http://arxiv.org/abs/2406.07885v1
- Date: Wed, 12 Jun 2024 05:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 18:25:01.697801
- Title: GENIU: A Restricted Data Access Unlearning for Imbalanced Data
- Title(参考訳): GENIU:不均衡データのための制限付きデータアクセスアンラーニング
- Authors: Chenhao Zhang, Shaofei Shen, Yawen Zhao, Weitong Tony Chen, Miao Xu,
- Abstract要約: クラスアンラーニングでは、トレーニングされたモデルが、以前に学習した特定のクラスに属するデータを忘れることを可能にする。
GENIUは、非学習不均衡なデータ設定と制限されたデータアクセスのための最初の実践的フレームワークである。
- 参考スコア(独自算出の注目度): 7.854651232997996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing emphasis on data privacy, the significance of machine unlearning has grown substantially. Class unlearning, which involves enabling a trained model to forget data belonging to a specific class learned before, is important as classification tasks account for the majority of today's machine learning as a service (MLaaS). Retraining the model on the original data, excluding the data to be forgotten (a.k.a forgetting data), is a common approach to class unlearning. However, the availability of original data during the unlearning phase is not always guaranteed, leading to the exploration of class unlearning with restricted data access. While current unlearning methods with restricted data access usually generate proxy sample via the trained neural network classifier, they typically focus on training and forgetting balanced data. However, the imbalanced original data can cause trouble for these proxies and unlearning, particularly when the forgetting data consists predominantly of the majority class. To address this issue, we propose the GENerative Imbalanced Unlearning (GENIU) framework. GENIU utilizes a Variational Autoencoder (VAE) to concurrently train a proxy generator alongside the original model. These generated proxies accurately represent each class and are leveraged in the unlearning phase, eliminating the reliance on the original training data. To further mitigate the performance degradation resulting from forgetting the majority class, we introduce an in-batch tuning strategy that works with the generated proxies. GENIU is the first practical framework for class unlearning in imbalanced data settings and restricted data access, ensuring the preservation of essential information for future unlearning. Experimental results confirm the superiority of GENIU over existing methods, establishing its effectiveness in empirical scenarios.
- Abstract(参考訳): データプライバシの重視により、機械学習の重要性は大きく向上した。
トレーニングされたモデルで、以前に学習した特定のクラスに属するデータを忘れることの可能なクラスアンラーニングは、今日のマシンラーニング・アズ・ア・サービス(MLaaS)の大部分を占める分類タスクとして重要である。
忘れられるデータ(例えば、忘れられるデータ)を除いて、元のデータ上でモデルをリトレーニングすることは、クラスアンラーニングに対する一般的なアプローチである。
しかし、アンラーニングフェーズにおける元のデータの可用性は必ずしも保証されないため、制限されたデータアクセスによるクラスアンラーニングの探索につながっている。
制限されたデータアクセスを持つ現在の未学習メソッドは通常、トレーニングされたニューラルネットワーク分類器を介してプロキシサンプルを生成するが、通常はトレーニングとバランスの取れたデータを忘れることに集中する。
しかし、不均衡な元のデータは、特に忘れたデータが大半が多数派である場合、これらのプロキシや未学習に問題を引き起こす可能性がある。
この問題に対処するため,ジェネラティブ・インバランスド・アンラーニング(GENIU)フレームワークを提案する。
GENIUは変分オートエンコーダ(VAE)を使用して、元のモデルと並行してプロキシジェネレータを同時にトレーニングする。
これらの生成プロキシは、各クラスを正確に表現し、未学習の段階で活用され、元のトレーニングデータへの依存をなくす。
多数派クラスを忘れることによる性能劣化をさらに軽減するため,生成したプロキシと連動するバッチ内チューニング戦略を導入する。
GENIUは、不均衡なデータ設定と制限されたデータアクセスにおけるクラスアンラーニングのための最初の実践的フレームワークであり、将来のアンラーニングに必要な情報の保存を保証する。
実験の結果, 既存手法よりもGENIUの方が優れていることが確認され, 経験的シナリオにおける有効性が確認された。
関連論文リスト
- Releasing Malevolence from Benevolence: The Menace of Benign Data on Machine Unlearning [28.35038726318893]
大量の実データや合成データに基づいてトレーニングされた機械学習モデルは、様々な領域で優れた予測性能を達成する。
プライバシの懸念に対処するため、モデルから特定のデータサンプルを削除するために、機械学習が提案されている。
本研究では,データ配信情報を少量の良質なデータ集合に抽出するために,Unlearning Usability Attackを導入する。
論文 参考訳(メタデータ) (2024-07-06T15:42:28Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Don't Memorize; Mimic The Past: Federated Class Incremental Learning
Without Episodic Memory [36.4406505365313]
本稿では,過去のデータの一部を格納するのではなく,生成モデルを用いて過去の分布からサンプルを合成する,連邦化クラスインクリメンタルラーニングのためのフレームワークを提案する。
生成モデルは、クライアントからデータを要求することなく、各タスクの最後にデータフリーのメソッドを使用してサーバ上でトレーニングされる。
論文 参考訳(メタデータ) (2023-07-02T07:06:45Z) - A Survey on Class Imbalance in Federated Learning [6.632451878730774]
フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
論文 参考訳(メタデータ) (2023-03-21T08:34:23Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。