論文の概要: Privacy Preservation through Practical Machine Unlearning
- arxiv url: http://arxiv.org/abs/2502.10635v1
- Date: Sat, 15 Feb 2025 02:25:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:12:08.344207
- Title: Privacy Preservation through Practical Machine Unlearning
- Title(参考訳): 実践的機械学習によるプライバシ保護
- Authors: Robert Dilworth,
- Abstract要約: プライバシの懸念が支配する時代において、Machine Unlearningは変革的なアプローチとして現れます。
本稿では,SISAフレームワークを用いたNative RetrainingやExact Unlearningなどの手法について検討する。
部分的にラベル付けされたデータセットがもたらす課題に対処するために、未学習の原則をPositive Unlabeled (PU) Learningに統合する可能性を探る。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine Learning models thrive on vast datasets, continuously adapting to provide accurate predictions and recommendations. However, in an era dominated by privacy concerns, Machine Unlearning emerges as a transformative approach, enabling the selective removal of data from trained models. This paper examines methods such as Naive Retraining and Exact Unlearning via the SISA framework, evaluating their Computational Costs, Consistency, and feasibility using the \texttt{HSpam14} dataset. We explore the potential of integrating unlearning principles into Positive Unlabeled (PU) Learning to address challenges posed by partially labeled datasets. Our findings highlight the promise of unlearning frameworks like \textit{DaRE} for ensuring privacy compliance while maintaining model performance, albeit with significant computational trade-offs. This study underscores the importance of Machine Unlearning in achieving ethical AI and fostering trust in data-driven systems.
- Abstract(参考訳): 機械学習モデルは膨大なデータセットに基づいて成長し、正確な予測とレコメンデーションを提供するために継続的に適応する。
しかしながら、プライバシの懸念に支配される時代において、Machine Unlearningは変革的なアプローチとして登場し、トレーニングされたモデルからデータを選択的に削除することを可能にする。
本稿では,SISA フレームワークによるNative Retraining や Exact Unlearning などの手法について検討し,その計算コスト,一貫性,実現可能性について,<texttt{HSpam14} データセットを用いて検討する。
部分的にラベル付けされたデータセットがもたらす課題に対処するために、未学習の原則をPositive Unlabeled (PU) Learningに統合する可能性を探る。
我々の発見は、モデルパフォーマンスを維持しながらプライバシのコンプライアンスを確保するために、‘textit{DaRE}’のような未学習フレームワークが約束されていることを強調している。
この研究は、倫理的AIの達成とデータ駆動システムにおける信頼の育成における機械学習の重要性を浮き彫りにする。
関連論文リスト
- From Machine Learning to Machine Unlearning: Complying with GDPR's Right to be Forgotten while Maintaining Business Value of Predictive Models [9.380866972744633]
この研究は、Ensemble-based iTerative Information Distillation (ETID)と呼ばれる、総合的な機械学習から学習へのフレームワークを開発する。
ETIDには、データ消去要求の処理を容易にする正確な予測モデルを構築するための、新しいアンサンブル学習手法が組み込まれている。
また, 効率的かつ効率的なデータ消去を実現するために, 構築されたアンサンブルモデルに適した, 蒸留に基づく未学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T05:42:46Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [94.13848736705575]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [49.043599241803825]
Iterative Contrastive Unlearning (ICU)フレームワークは3つのコアコンポーネントで構成されている。
知識未学習誘導モジュールは、未学習の損失を通じて特定の知識を除去する。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を維持する。
また、特定のデータ片の未学習範囲を動的に評価し、反復的な更新を行う反復未学習リファインメントモジュールも用意されている。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Dataset Condensation Driven Machine Unlearning [0.0]
データ規制要件とプライバシ保護機械学習の現在のトレンドは、機械学習の重要性を強調している。
我々は,機械学習のプライバシ,ユーティリティ,効率のバランスをとるために,新しいデータセット凝縮手法と革新的なアンラーニング手法を提案する。
本稿では,機械のアンラーニングを計測するための新しい効果的なアプローチを提案し,その適用方法として,メンバシップ推論とモデル逆転攻撃の防御を提案する。
論文 参考訳(メタデータ) (2024-01-31T21:48:25Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。