論文の概要: EFU: Enforcing Federated Unlearning via Functional Encryption
- arxiv url: http://arxiv.org/abs/2508.07873v1
- Date: Mon, 11 Aug 2025 11:44:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.06912
- Title: EFU: Enforcing Federated Unlearning via Functional Encryption
- Title(参考訳): EFU: 関数暗号化によるフェデレーションアンラーニングの強化
- Authors: Samaneh Mohammadi, Vasileios Tsouvalas, Iraklis Symeonidis, Ali Balador, Tanir Ozcelebi, Francesco Flammini, Nirvana Meratnia,
- Abstract要約: フェデレーテッド・アンラーニング(FU)アルゴリズムにより、フェデレーテッド・セッティングのクライアントは「忘れられる権利」を行使できる。
既存のFUメソッドは、未学習のデータをクライアント側でローカルに実行し、忘れたデータを露出することなく、ターゲットとする更新をサーバに送信することで、データのプライバシを維持する。
EFU(Enforced Federated Unlearning)は,クライアントがサーバから発生した情報を隠蔽しながら,未学習の開始を可能にする,暗号的に強制されたFUフレームワークである。
- 参考スコア(独自算出の注目度): 3.7766323073490216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated unlearning (FU) algorithms allow clients in federated settings to exercise their ''right to be forgotten'' by removing the influence of their data from a collaboratively trained model. Existing FU methods maintain data privacy by performing unlearning locally on the client-side and sending targeted updates to the server without exposing forgotten data; yet they often rely on server-side cooperation, revealing the client's intent and identity without enforcement guarantees - compromising autonomy and unlearning privacy. In this work, we propose EFU (Enforced Federated Unlearning), a cryptographically enforced FU framework that enables clients to initiate unlearning while concealing its occurrence from the server. Specifically, EFU leverages functional encryption to bind encrypted updates to specific aggregation functions, ensuring the server can neither perform unauthorized computations nor detect or skip unlearning requests. To further mask behavioral and parameter shifts in the aggregated model, we incorporate auxiliary unlearning losses based on adversarial examples and parameter importance regularization. Extensive experiments show that EFU achieves near-random accuracy on forgotten data while maintaining performance comparable to full retraining across datasets and neural architectures - all while concealing unlearning intent from the server. Furthermore, we demonstrate that EFU is agnostic to the underlying unlearning algorithm, enabling secure, function-hiding, and verifiable unlearning for any client-side FU mechanism that issues targeted updates.
- Abstract(参考訳): フェデレーション・アンラーニング(FU)アルゴリズムは、協力的にトレーニングされたモデルからデータの影響を取り除くことで、フェデレーションされた設定のクライアントが「忘れられる権利」を行使することを可能にする。
既存のFUメソッドは、クライアント側で未学習をローカルに実行し、忘れられたデータを公開せずにターゲットとする更新をサーバに送信することで、データのプライバシを維持している。
本研究では,暗号的に強制されたFUフレームワークであるEFU(Enforced Federated Unlearning)を提案する。
具体的には、EFUは機能暗号化を活用して、暗号化された更新を特定の集約関数にバインドすることで、サーバが未許可の計算を実行したり、未学習の要求を検出したり、スキップしたりしないことを保証する。
集約モデルにおける振舞いとパラメータのシフトをさらに隠蔽するため、逆例とパラメータ重要正規化に基づく補助的未学習損失を組み込んだ。
大規模な実験により、EFUは忘れられたデータに対してほぼランダムな精度を実現し、データセットとニューラルネットワーク間の完全なリトレーニングに匹敵するパフォーマンスを維持している。
さらに、EFUは基盤となるアンラーニングアルゴリズムに非依存であり、ターゲットとする更新を発行するクライアント側FUメカニズムに対して、セキュアで関数ハイディング、検証可能なアンラーニングを可能にすることを実証する。
関連論文リスト
- Model Inversion Attack against Federated Unlearning [7.208310705506839]
本稿では,フェデレーション・アンラーニング・インバージョン・アタック(FUIA)を提案する。
FUIAは三種類のFU(サンプルアンラーニング、クライアントアンラーニング、クラスアンラーニング)に特化して設計されている。
忘れられたデータのプライバシーを著しく漏洩させ、あらゆる種類のFUをターゲットにすることができる。
論文 参考訳(メタデータ) (2025-02-20T13:38:36Z) - Efficient Federated Unlearning with Adaptive Differential Privacy Preservation [15.8083997286637]
フェデレーション・アンラーニング(FU)は、フェデレーション・ラーニング(FL)における、特定のクライアントのデータがグローバルモデルに与える影響を消し去るための有望なソリューションを提供する。
現在の最先端のFUメソッドは、保存された履歴更新を活用することで、従来のFLフレームワークを拡張している。
FUにおける効率性とプライバシ保護の両立を図ったFedADPを提案する。
論文 参考訳(メタデータ) (2024-11-17T11:45:15Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication [34.6454670154373]
本稿では,ユーザデータの匿名性を保護し,データのセキュリティを維持する新しいフェデレートラーニング(FL)手法を提案する。
ユーザプライバシとデータセキュリティを維持しながら,ユーザ認証の精度を大幅に向上させる実験を行った。
論文 参考訳(メタデータ) (2022-11-10T15:51:04Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。