論文の概要: Towards Verifiable Federated Unlearning: Framework, Challenges, and The Road Ahead
- arxiv url: http://arxiv.org/abs/2510.00833v1
- Date: Wed, 01 Oct 2025 12:45:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.560051
- Title: Towards Verifiable Federated Unlearning: Framework, Challenges, and The Road Ahead
- Title(参考訳): 検証可能なフェデレーション・アンラーニングに向けて - フレームワーク、課題、道のり
- Authors: Thanh Linh Nguyen, Marcela Tuler de Oliveira, An Braeken, Aaron Yi Ding, Quoc-Viet Pham,
- Abstract要約: フェデレーション・アンラーニング(FUL)は、分散クライアント間でトレーニングされたモデルからデータの影響を取り除くことを可能にする。
この記事では、検証エンティティ、目標、アプローチ、メトリクスを形式化する検証FULの参照フレームワークであるVeriFULを紹介します。
- 参考スコア(独自算出の注目度): 6.530323505784683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated unlearning (FUL) enables removing the data influence from the model trained across distributed clients, upholding the right to be forgotten as mandated by privacy regulations. FUL facilitates a value exchange where clients gain privacy-preserving control over their data contributions, while service providers leverage decentralized computing and data freshness. However, this entire proposition is undermined because clients have no reliable way to verify that their data influence has been provably removed, as current metrics and simple notifications offer insufficient assurance. We envision unlearning verification becoming a pivotal and trust-by-design part of the FUL life-cycle development, essential for highly regulated and data-sensitive services and applications like healthcare. This article introduces veriFUL, a reference framework for verifiable FUL that formalizes verification entities, goals, approaches, and metrics. Specifically, we consolidate existing efforts and contribute new insights, concepts, and metrics to this domain. Finally, we highlight research challenges and identify potential applications and developments for verifiable FUL and veriFUL.
- Abstract(参考訳): フェデレート・アンラーニング(FUL)は、分散クライアント間でトレーニングされたモデルからデータの影響を取り除くことを可能にし、プライバシ規制によって義務付けられたものとして忘れられる権利を擁護する。
FULは、クライアントがデータコントリビューションに対してプライバシ保護のコントロールを得るためのバリュー交換を促進する一方で、サービスプロバイダは分散コンピューティングとデータの鮮度を活用する。
しかし、現在のメトリクスと単純な通知が不十分な保証を提供するため、クライアントはデータの影響が確実に削除されたことを確認する信頼できる方法を持っていないため、この提案全体が損なわれている。
我々は、未学習の検証がFULライフサイクル開発の重要かつ信頼性の高い部分となり、高度に規制されデータに敏感なサービスや医療などのアプリケーションに不可欠なものになるだろうと考えている。
この記事では、検証エンティティ、目標、アプローチ、メトリクスを形式化する検証FULの参照フレームワークであるVeriFULを紹介します。
具体的には、既存の取り組みを統合し、この領域に新たな洞察、概念、メトリクスを提供します。
最後に、FULとVeriFULの検証のための研究課題と潜在的な応用と開発について述べる。
関連論文リスト
- zkFL-Health: Blockchain-Enabled Zero-Knowledge Federated Learning for Medical AI Privacy [0.0]
zkFL-Healthは、フェデレートラーニング(FL)とゼロ知識証明(ZKP)と信頼実行環境(TEE)を組み合わせたアーキテクチャである。
クライアントはローカルにトレーニングし、アップデートをコミットする。アグリゲータはTEE内でグローバルアップデートを計算し、クライアントのアップデートをホストに公開することなく、コミットした入力と正しいアグリゲーションルールを正確に使用したという簡潔なZK証明を生成する。
医療に適したシステムと脅威モデル、zkFL-Healthプロトコル、セキュリティ/プライバシ保証、正確性、プライバシリスク、レイテンシ、コストにまたがるパフォーマンス評価計画について概説する。
論文 参考訳(メタデータ) (2025-12-24T08:29:28Z) - Stragglers Can Contribute More: Uncertainty-Aware Distillation for Asynchronous Federated Learning [61.249748418757946]
Asynchronous Federated Learning (FL)は、その効率性とスケーラビリティの向上に注目されている。
我々は,不確実性を考慮した蒸留を組み込んだ新しいフレームワークであるFedEchoを提案し,非同期FL性能を向上する。
FedEchoが既存の非同期フェデレーション学習ベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T06:25:25Z) - Improving Regulatory Oversight in Online Content Moderation [2.1082552608122542]
欧州連合は、デジタルプラットフォームに関連するリスクに対処し、より安全なオンライン環境を促進するために、デジタルサービス法(DSA)を導入した。
透明性データベース(Transparency Database)や透明性レポート(Transparency Reports)、プラットフォーム透明性を改善するためのDSAの第40条といったコンポーネントの可能性にもかかわらず、大きな課題は残る。
データの不整合や詳細な情報の欠如など,コンテンツのモデレーションプラクティスの透明性を損なうものもあります。
論文 参考訳(メタデータ) (2025-06-04T16:38:25Z) - DP-RTFL: Differentially Private Resilient Temporal Federated Learning for Trustworthy AI in Regulated Industries [0.0]
本稿では,DP-RTFL(Disferially Private Resilient Temporal Federated Learning)を紹介する。
トレーニングの継続性、正確な状態回復、強力なデータプライバシを保証するように設計されている。
このフレームワークは、機密性の高い財務データを使用した信用リスク評価のような重要なアプリケーションに特に適している。
論文 参考訳(メタデータ) (2025-05-27T16:30:25Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - Empirical Analysis of Privacy-Fairness-Accuracy Trade-offs in Federated Learning: A Step Towards Responsible AI [6.671649946926508]
フェデレーテッド・ラーニング(FL)におけるプライバシ・フェアネス・ユーティリティ・トレードオフに関する大規模な実証的研究について紹介する。
フェアネス・アウェアと差分プライバシー(DP)、同相暗号化(HE)、セキュアマルチパーティ暗号化(SMC)を比較した。
DPメカニズムは、公平性、歪み、公平性に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2025-03-20T15:31:01Z) - Setting the Course, but Forgetting to Steer: Analyzing Compliance with GDPR's Right of Access to Data by Instagram, TikTok, and YouTube [9.304421724270828]
アクセスの権利は、データダウンロードパッケージ(DDP)を介して個人データを制御できるようにすることを目的としている。
本稿では、3つのソーシャルメディアプラットフォーム(TikTok、Instagram、YouTube)からのDDPの総合的な監査を行い、これらの重要な欠点を体系的に評価する。
論文 参考訳(メタデータ) (2025-02-16T17:15:11Z) - Privacy-Preserving Verifiable Neural Network Inference Service [4.131956503199438]
我々は,クライアントデータサンプルのプライバシを保存するために,プライバシ保護と検証が可能なCNN推論手法を開発した。
vPINは、クライアントデータのプライバシ保証と証明可能な検証性を提供しながら、証明サイズの観点から高い効率を達成する。
論文 参考訳(メタデータ) (2024-11-12T01:09:52Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。