論文の概要: Towards Independence Criterion in Machine Unlearning of Features and
Labels
- arxiv url: http://arxiv.org/abs/2403.08124v1
- Date: Tue, 12 Mar 2024 23:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 16:22:42.877736
- Title: Towards Independence Criterion in Machine Unlearning of Features and
Labels
- Title(参考訳): 特徴・特徴のマシン・アンラーニングにおける独立基準に向けて
ラベル
- Authors: Ling Han, Nanqing Luo, Hao Huang, Jing Chen, Mary-Anne Hartley
- Abstract要約: この研究は、分散シフトに直面した機械学習の複雑さを掘り下げるものだ。
本研究は、これらの課題に対処するために、影響関数と分布独立の原理を活用する新しいアプローチを導入する。
提案手法は, 効率的なデータ除去を容易にするだけでなく, モデルを動的に調整し, 一般化機能を維持する。
- 参考スコア(独自算出の注目度): 9.790684060172662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work delves into the complexities of machine unlearning in the face of
distributional shifts, particularly focusing on the challenges posed by
non-uniform feature and label removal. With the advent of regulations like the
GDPR emphasizing data privacy and the right to be forgotten, machine learning
models face the daunting task of unlearning sensitive information without
compromising their integrity or performance. Our research introduces a novel
approach that leverages influence functions and principles of distributional
independence to address these challenges. By proposing a comprehensive
framework for machine unlearning, we aim to ensure privacy protection while
maintaining model performance and adaptability across varying distributions.
Our method not only facilitates efficient data removal but also dynamically
adjusts the model to preserve its generalization capabilities. Through
extensive experimentation, we demonstrate the efficacy of our approach in
scenarios characterized by significant distributional shifts, making
substantial contributions to the field of machine unlearning. This research
paves the way for developing more resilient and adaptable unlearning
techniques, ensuring models remain robust and accurate in the dynamic landscape
of data privacy and machine learning.
- Abstract(参考訳): この研究は、分散シフトに直面した機械学習の複雑さを深く掘り下げ、特に一様でない特徴やラベルの削除によって引き起こされる課題に焦点を当てている。
データプライバシと忘れられる権利を強調したGDPRのような規制の出現により、マシンラーニングモデルは、その完全性やパフォーマンスを損なうことなく、機密情報を学習する、という恐ろしい課題に直面します。
本研究は、これらの課題に対処するために、影響関数と分布独立の原理を活用する新しいアプローチを導入する。
機械学習のための包括的なフレームワークを提案することにより、さまざまなディストリビューションにおけるモデル性能と適応性を維持しながら、プライバシ保護を確保することを目指している。
提案手法は, 効率的なデータ除去を容易にするだけでなく, モデルを動的に調整し, 一般化機能を維持する。
大規模な実験を通じて,分散的な変化を特徴とするシナリオにおいて,我々のアプローチの有効性を実証し,機械学習の分野に多大な貢献をする。
この研究は、データプライバシと機械学習の動的な状況において、モデルが堅牢で正確であることを保証する、よりレジリエントで適応可能な未学習技術を開発するための道を開く。
関連論文リスト
- Leveraging Internal Representations of Model for Magnetic Image
Classification [0.13654846342364302]
本稿では、1つの磁気画像とそれに対応するラベル画像しか持たないシナリオに特化して設計された機械学習モデルトレーニングのための、潜在的に画期的なパラダイムを提案する。
私たちはDeep Learningの能力を活用して、データの不足を克服することを目的として、簡潔で情報に富んだサンプルを生成します。
論文 参考訳(メタデータ) (2024-03-11T15:15:50Z) - Self-consistent Validation for Machine Learning Electronic Structure [81.54661501506185]
機械学習と自己整合フィールド法を統合して,検証コストの低減と解釈可能性の両立を実現する。
これにより、積極的学習によるモデルの能力の探索が可能となり、実際の研究への統合への信頼がもたらされる。
論文 参考訳(メタデータ) (2024-02-15T18:41:35Z) - Dataset Condensation Driven Machine Unlearning [0.0]
データ規制要件とプライバシ保護機械学習の現在のトレンドは、機械学習の重要性を強調している。
我々は,機械学習のプライバシ,ユーティリティ,効率のバランスをとるために,新しいデータセット凝縮手法と革新的なアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T21:48:25Z) - Machine unlearning through fine-grained model parameters perturbation [29.1171391789129]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - FRAMU: Attention-based Machine Unlearning using Federated Reinforcement
Learning [16.86560475992975]
FRAMU(Federated Reinforcement Learning)を用いた注意型機械学習について紹介する。
FRAMUには適応学習機構、プライバシー保護技術、最適化戦略が組み込まれている。
実験の結果,FRAMUはベースラインモデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-19T03:13:17Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Machine Unlearning: Solutions and Challenges [23.095750115491803]
機械学習モデルは、機密性、不正、悪意のあるデータを不注意に記憶し、プライバシ侵害、セキュリティ脆弱性、パフォーマンス劣化のリスクを生じさせる可能性がある。
これらの問題に対処するために、機械学習は訓練されたモデルに対する特定の訓練データポイントの影響を選択的に除去する重要なテクニックとして登場した。
本稿では,機械学習における解の包括的分類と解析について述べる。
論文 参考訳(メタデータ) (2023-08-14T10:45:51Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。