論文の概要: ToFU: Transforming How Federated Learning Systems Forget User Data
- arxiv url: http://arxiv.org/abs/2509.15861v1
- Date: Fri, 19 Sep 2025 10:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.134626
- Title: ToFU: Transforming How Federated Learning Systems Forget User Data
- Title(参考訳): ToFU: フェデレーション学習システムがユーザデータを保護する方法を変える
- Authors: Van-Tuan Tran, Hong-Hanh Nguyen-Le, Quoc-Viet Pham,
- Abstract要約: ニューラルネットワークは意図せずトレーニングデータを記憶し、フェデレーション学習(FL)システムにおけるプライバシリスクを生成する。
本稿では,学習過程の変換を取り入れ,特定のインスタンスの記憶を減らし,学習から学習までの変換誘導型フェデレート・アンラーニング(ToFU)フレームワークを提案する。
ToFUは既存のFederated Unlearningメソッドのパフォーマンスを改善するためのプラグイン・アンド・プレイフレームワークとして機能する。
- 参考スコア(独自算出の注目度): 3.143298944776905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks unintentionally memorize training data, creating privacy risks in federated learning (FL) systems, such as inference and reconstruction attacks on sensitive data. To mitigate these risks and to comply with privacy regulations, Federated Unlearning (FU) has been introduced to enable participants in FL systems to remove their data's influence from the global model. However, current FU methods primarily act post-hoc, struggling to efficiently erase information deeply memorized by neural networks. We argue that effective unlearning necessitates a paradigm shift: designing FL systems inherently amenable to forgetting. To this end, we propose a learning-to-unlearn Transformation-guided Federated Unlearning (ToFU) framework that incorporates transformations during the learning process to reduce memorization of specific instances. Our theoretical analysis reveals how transformation composition provably bounds instance-specific information, directly simplifying subsequent unlearning. Crucially, ToFU can work as a plug-and-play framework that improves the performance of existing FU methods. Experiments on CIFAR-10, CIFAR-100, and the MUFAC benchmark show that ToFU outperforms existing FU baselines, enhances performance when integrated with current methods, and reduces unlearning time.
- Abstract(参考訳): ニューラルネットワークは、意図せずトレーニングデータを記憶し、機密データに対する推論や再構築攻撃などのフェデレーション学習(FL)システムにおけるプライバシリスクを生成する。
これらのリスクを緩和し、プライバシ規則に従うために、FLシステムの参加者がグローバルモデルからデータの影響を取り除くことを可能にするために、フェデレート・アンラーニング(FU)が導入されている。
しかし、現在のFU法は主にポストホックであり、ニューラルネットワークによって深く記憶された情報を効率的に消去するのに苦労している。
我々は、効果的な非学習がパラダイムシフトを必要としていると論じる。
そこで本研究では,学習過程の変換を取り入れ,特定のインスタンスの記憶を減らし,学習から学習までの変換誘導型フェデレート・アンラーニング(ToFU)フレームワークを提案する。
我々の理論的分析は、変換合成がインスタンス固有の情報を確実に束縛し、後続の未学習を直接単純化する方法を明らかにする。
重要なことは、ToFUは既存のFUメソッドのパフォーマンスを改善するプラグイン・アンド・プレイのフレームワークとして機能する。
CIFAR-10、CIFAR-100、MUFACベンチマークの実験では、ToFUは既存のFUベースラインより優れており、現在のメソッドに統合された場合のパフォーマンスを高め、未学習時間を短縮している。
関連論文リスト
- DRAUN: An Algorithm-Agnostic Data Reconstruction Attack on Federated Unlearning Systems [6.792248470703829]
Unlearning(FU)により、クライアントは、協調的に訓練されたグローバルモデルから特定のデータの影響を取り除くことができる。
悪意のあるサーバは、未学習の更新を利用して削除要求のデータを再構築する。
この研究は、FUシステムで未学習データに対する最初の攻撃フレームワークであるDRAUNを提示する。
論文 参考訳(メタデータ) (2025-06-02T15:20:54Z) - Accurate Forgetting for Heterogeneous Federated Continual Learning [89.08735771893608]
提案手法は,フェデレーションネットワークにおける従来の知識を選択的に活用する新しい生成再生手法である。
我々は,従来の知識の信頼性を定量化するために,正規化フローモデルに基づく確率的フレームワークを用いる。
論文 参考訳(メタデータ) (2025-02-20T02:35:17Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は、無線ネットワークにおいて大きな変革をもたらしている。
無線環境では、LLMのトレーニングはセキュリティとプライバシに関する重大な課題に直面している。
本稿では,無線ネットワークにおけるLLMのトレーニング段階の体系的解析を行い,事前学習,命令チューニング,アライメントチューニングを行う。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - SIFU: Sequential Informed Federated Unlearning for Efficient and Provable Client Unlearning in Federated Optimization [23.064896326146386]
Machine Unlearning(MU)は、トレーニング手順から与えられたデータポイントのコントリビューションを削除することを目的としている。
フェデレーテッド・アンラーニング(FU)手法が提案されている一方で,新しい手法としてSIFU(Sequential Informed Unlearning)を提案する。
論文 参考訳(メタデータ) (2022-11-21T17:15:46Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。