論文の概要: Towards Robust Knowledge Removal in Federated Learning with High Data Heterogeneity
- arxiv url: http://arxiv.org/abs/2510.13606v1
- Date: Wed, 15 Oct 2025 14:36:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.712823
- Title: Towards Robust Knowledge Removal in Federated Learning with High Data Heterogeneity
- Title(参考訳): 高データ不均一性を考慮したフェデレーション学習におけるロバスト知識の除去に向けて
- Authors: Riccardo Santi, Riccardo Salami, Simone Calderara,
- Abstract要約: プライバシ規則と安全要件により、モデルへのクライアントのコントリビューションの必要性による排除が義務付けられている。
本稿では,タスク算術とニューラルタンジェントカーネルに基づく革新的なソリューションを導入し,モデルからクライアントの影響を迅速に除去する。
- 参考スコア(独自算出の注目度): 12.491329964886177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowdays, there are an abundance of portable devices capable of collecting large amounts of data and with decent computational power. This opened the possibility to train AI models in a distributed manner, preserving the participating clients' privacy. However, because of privacy regulations and safety requirements, elimination upon necessity of a client contribution to the model has become mandatory. The cleansing process must satisfy specific efficacy and time requirements. In recent years, research efforts have produced several knowledge removal methods, but these require multiple communication rounds between the data holders and the process coordinator. This can cause the unavailability of an effective model up to the end of the removal process, which can result in a disservice to the system users. In this paper, we introduce an innovative solution based on Task Arithmetic and the Neural Tangent Kernel, to rapidly remove a client's influence from a model.
- Abstract(参考訳): 現在、大量のデータを収集し、十分な計算能力を持つ携帯機器が多数存在する。
これにより、AIモデルを分散的にトレーニングし、参加するクライアントのプライバシを保存することが可能になる。
しかし,プライバシ規則や安全要件のため,モデルへのクライアントのコントリビューションの必要性による排除が義務付けられている。
洗浄プロセスは特定の有効性と時間的要求を満たす必要がある。
近年,データ保持者とプロセスコーディネータとの間には,複数のコミュニケーションラウンドが必要となる。
これにより、効率的なモデルが削除プロセスの終了まで利用できなくなる可能性があるため、システムユーザーにはサービス停止が生じる可能性がある。
本稿では,タスク・算術とニューラル・タンジェント・カーネルに基づく革新的なソリューションを導入し,モデルからクライアントの影響を迅速に除去する。
関連論文リスト
- Does Machine Unlearning Truly Remove Knowledge? [80.83986295685128]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - Distribution-Level Feature Distancing for Machine Unlearning: Towards a Better Trade-off Between Model Utility and Forgetting [4.220336689294245]
本稿では,タスク関連特徴相関を保ちつつ,効率的にインスタンスを破棄する新しい手法である分散レベル特徴分散(DLFD)を提案する。
提案手法は, 特徴分布を忘れ試料と明確に異なるように最適化し, 単一の学習エポック内で有効結果を得る。
論文 参考訳(メタデータ) (2024-09-23T06:51:10Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.40798352740857]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Dataset Condensation Driven Machine Unlearning [0.0]
データ規制要件とプライバシ保護機械学習の現在のトレンドは、機械学習の重要性を強調している。
我々は,機械学習のプライバシ,ユーティリティ,効率のバランスをとるために,新しいデータセット凝縮手法と革新的なアンラーニング手法を提案する。
本稿では,機械のアンラーニングを計測するための新しい効果的なアプローチを提案し,その適用方法として,メンバシップ推論とモデル逆転攻撃の防御を提案する。
論文 参考訳(メタデータ) (2024-01-31T21:48:25Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。