論文の概要: Towards Independence Criterion in Machine Unlearning of Features and
Labels
- arxiv url: http://arxiv.org/abs/2403.08124v1
- Date: Tue, 12 Mar 2024 23:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 16:22:42.877736
- Title: Towards Independence Criterion in Machine Unlearning of Features and
Labels
- Title(参考訳): 特徴・特徴のマシン・アンラーニングにおける独立基準に向けて
ラベル
- Authors: Ling Han, Nanqing Luo, Hao Huang, Jing Chen, Mary-Anne Hartley
- Abstract要約: この研究は、分散シフトに直面した機械学習の複雑さを掘り下げるものだ。
本研究は、これらの課題に対処するために、影響関数と分布独立の原理を活用する新しいアプローチを導入する。
提案手法は, 効率的なデータ除去を容易にするだけでなく, モデルを動的に調整し, 一般化機能を維持する。
- 参考スコア(独自算出の注目度): 9.790684060172662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work delves into the complexities of machine unlearning in the face of
distributional shifts, particularly focusing on the challenges posed by
non-uniform feature and label removal. With the advent of regulations like the
GDPR emphasizing data privacy and the right to be forgotten, machine learning
models face the daunting task of unlearning sensitive information without
compromising their integrity or performance. Our research introduces a novel
approach that leverages influence functions and principles of distributional
independence to address these challenges. By proposing a comprehensive
framework for machine unlearning, we aim to ensure privacy protection while
maintaining model performance and adaptability across varying distributions.
Our method not only facilitates efficient data removal but also dynamically
adjusts the model to preserve its generalization capabilities. Through
extensive experimentation, we demonstrate the efficacy of our approach in
scenarios characterized by significant distributional shifts, making
substantial contributions to the field of machine unlearning. This research
paves the way for developing more resilient and adaptable unlearning
techniques, ensuring models remain robust and accurate in the dynamic landscape
of data privacy and machine learning.
- Abstract(参考訳): この研究は、分散シフトに直面した機械学習の複雑さを深く掘り下げ、特に一様でない特徴やラベルの削除によって引き起こされる課題に焦点を当てている。
データプライバシと忘れられる権利を強調したGDPRのような規制の出現により、マシンラーニングモデルは、その完全性やパフォーマンスを損なうことなく、機密情報を学習する、という恐ろしい課題に直面します。
本研究は、これらの課題に対処するために、影響関数と分布独立の原理を活用する新しいアプローチを導入する。
機械学習のための包括的なフレームワークを提案することにより、さまざまなディストリビューションにおけるモデル性能と適応性を維持しながら、プライバシ保護を確保することを目指している。
提案手法は, 効率的なデータ除去を容易にするだけでなく, モデルを動的に調整し, 一般化機能を維持する。
大規模な実験を通じて,分散的な変化を特徴とするシナリオにおいて,我々のアプローチの有効性を実証し,機械学習の分野に多大な貢献をする。
この研究は、データプライバシと機械学習の動的な状況において、モデルが堅牢で正確であることを保証する、よりレジリエントで適応可能な未学習技術を開発するための道を開く。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Zero-shot Class Unlearning via Layer-wise Relevance Analysis and Neuronal Path Perturbation [11.174705227990241]
機械学習は、大規模な再トレーニングを必要とせずに、トレーニングされたモデルから特定のデータの影響を取り除くテクニックである。
本稿では,階層的関連分析と神経経路摂動を用いた機械学習の新しい手法を提案する。
本手法は,高関連ニューロンを同定・摂動することで,機械学習性能とモデルの有用性のバランスをとる。
論文 参考訳(メタデータ) (2024-10-31T07:37:04Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Self-consistent Validation for Machine Learning Electronic Structure [81.54661501506185]
機械学習と自己整合フィールド法を統合して,検証コストの低減と解釈可能性の両立を実現する。
これにより、積極的学習によるモデルの能力の探索が可能となり、実際の研究への統合への信頼がもたらされる。
論文 参考訳(メタデータ) (2024-02-15T18:41:35Z) - FRAMU: Attention-based Machine Unlearning using Federated Reinforcement
Learning [16.86560475992975]
FRAMU(Federated Reinforcement Learning)を用いた注意型機械学習について紹介する。
FRAMUには適応学習機構、プライバシー保護技術、最適化戦略が組み込まれている。
実験の結果,FRAMUはベースラインモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-19T03:13:17Z) - Machine Unlearning: Solutions and Challenges [21.141664917477257]
機械学習モデルは、機密性、不正、悪意のあるデータを不注意に記憶し、プライバシ侵害、セキュリティ脆弱性、パフォーマンス劣化のリスクを生じさせる可能性がある。
これらの問題に対処するために、機械学習は訓練されたモデルに対する特定の訓練データポイントの影響を選択的に除去する重要なテクニックとして登場した。
本稿では,機械学習における解の包括的分類と解析について述べる。
論文 参考訳(メタデータ) (2023-08-14T10:45:51Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。