論文の概要: Attack and Reset for Unlearning: Exploiting Adversarial Noise toward
Machine Unlearning through Parameter Re-initialization
- arxiv url: http://arxiv.org/abs/2401.08998v1
- Date: Wed, 17 Jan 2024 06:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:50:15.330408
- Title: Attack and Reset for Unlearning: Exploiting Adversarial Noise toward
Machine Unlearning through Parameter Re-initialization
- Title(参考訳): アンラーニングのアタックとリセット:パラメータ再初期化による機械学習への敵対的ノイズの活用
- Authors: Yoonhwa Jung and Ikhyun Cho and Shun-Hsiang Hsu and Julia Hockenmaier
- Abstract要約: 我々は、アンラーニングのためのアタック・アンド・リセット(ARU)と呼ばれる新しいアプローチを導入する。
ARUは、巧妙に製作された対向ノイズを使用してパラメータマスクを生成し、特定のパラメータを効果的にリセットし、それらを学習不能にする。
ARUは2つの顔機械学習ベンチマークデータセットにおいて、最先端の結果を上回っている。
- 参考スコア(独自算出の注目度): 3.4663802786259104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With growing concerns surrounding privacy and regulatory compliance, the
concept of machine unlearning has gained prominence, aiming to selectively
forget or erase specific learned information from a trained model. In response
to this critical need, we introduce a novel approach called Attack-and-Reset
for Unlearning (ARU). This algorithm leverages meticulously crafted adversarial
noise to generate a parameter mask, effectively resetting certain parameters
and rendering them unlearnable. ARU outperforms current state-of-the-art
results on two facial machine-unlearning benchmark datasets, MUFAC and MUCAC.
In particular, we present the steps involved in attacking and masking that
strategically filter and re-initialize network parameters biased towards the
forget set. Our work represents a significant advancement in rendering data
unexploitable to deep learning models through parameter re-initialization,
achieved by harnessing adversarial noise to craft a mask.
- Abstract(参考訳): プライバシと規制の遵守に関する懸念が高まり、機械学習の概念は有名になり、訓練されたモデルから特定の学習情報を選択的に忘れたり、消去することを目指している。
このような重要なニーズに応えて、我々はAttack-and-Reset for Unlearning (ARU)と呼ばれる新しいアプローチを導入する。
このアルゴリズムは、巧妙に製作された対向ノイズを利用してパラメータマスクを生成し、特定のパラメータを効果的にリセットし、それらを学習不能にする。
ARUは、MUFACとMUCACの2つの顔機械学習ベンチマークデータセットにおいて、最先端の結果を上回っている。
特に,ネットワークパラメータを戦略的にフィルタし再初期化する攻撃とマスキングに関するステップについて述べる。
私たちの研究は、逆雑音を利用してマスクを作ることで、パラメータの再初期化を通じてディープラーニングモデルに展開不能なデータレンダリングの大幅な進歩を示しています。
関連論文リスト
- Verifying Machine Unlearning with Explainable AI [46.7583989202789]
港の前面監視における機械学習(MU)の検証における説明可能なAI(XAI)の有効性について検討する。
私たちの概念実証は、従来のメトリクスを超えて拡張されたMUの革新的な検証ステップとして属性機能を導入しています。
本稿では,これらの手法の有効性を評価するために,熱マップカバレッジ(HC)とアテンションシフト(AS)の2つの新しいXAI指標を提案する。
論文 参考訳(メタデータ) (2024-11-20T13:57:32Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Towards Robust and Cost-Efficient Knowledge Unlearning for Large Language Models [25.91643745340183]
大規模言語モデル(LLM)は、大量のテキストコーパスの事前学習を通じて、強い推論と記憶能力を示す。
これはプライバシーと著作権侵害のリスクを生じさせ、効率的な機械学習手法の必要性を強調している。
LLMのための堅牢で効率的なアンラーニングのための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-13T04:18:32Z) - ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - Adversarial Machine Unlearning [26.809123658470693]
本稿では,機械学習モデルに対する特定のトレーニングデータの影響を取り除くことを目的とした,機械学習の課題に焦点を当てた。
伝統的に、未学習アルゴリズムの開発は、ある種のプライバシー脅威である会員推論攻撃(MIA)と並行して実行される。
未学習アルゴリズムの設計にMIAを統合するゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-11T20:07:22Z) - Exploring Fairness in Educational Data Mining in the Context of the Right to be Forgotten [16.03102654663785]
教育データマイニング(EDM)コミュニティでは、機械学習が教育上の課題に対処するパターンや構造を発見することに成功している。
忘れられる権利の需要が高まっているため、機密データとその影響を忘れる機械学習モデルの必要性が高まっている。
予測精度を維持しつつ,学習モデルの公平性を損なうような,新たな選択的忘れ攻撃のクラスを導入する。
論文 参考訳(メタデータ) (2024-05-27T03:35:50Z) - Machine unlearning through fine-grained model parameters perturbation [26.653596302257057]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - Masked Autoencoding for Scalable and Generalizable Decision Making [93.84855114717062]
MaskDPは、強化学習と行動クローンのためのシンプルでスケーラブルな自己教師付き事前学習手法である。
我々は,MaskDPモデルにより,単一ゴールや複数ゴール到達といった新しいBCタスクへのゼロショット転送能力が得られることを発見した。
論文 参考訳(メタデータ) (2022-11-23T07:04:41Z) - Exploring The Role of Mean Teachers in Self-supervised Masked
Auto-Encoders [64.03000385267339]
マスク付き画像モデリング(MIM)は視覚変換器を用いた視覚表現の自己教師型学習(SSL)の一般的な戦略となっている。
簡単なSSL方式であるRC-MAE(Restruction-Consistent Masked Auto-Encoder)を提案する。
RC-MAEは、事前学習中に最先端の自己蒸留法よりも早く収束し、メモリ使用量の削減を必要とする。
論文 参考訳(メタデータ) (2022-10-05T08:08:55Z) - Continual Learning via Bit-Level Information Preserving [88.32450740325005]
我々は情報理論のレンズを通して連続学習過程を研究する。
モデルパラメータの情報利得を維持するビットレベル情報保存(BLIP)を提案する。
BLIPは、連続的な学習を通してメモリオーバーヘッドを一定に保ちながら、ほとんど忘れることができない。
論文 参考訳(メタデータ) (2021-05-10T15:09:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。