論文の概要: Towards Verifiable Federated Unlearning: Framework, Challenges, and The Road Ahead
- arxiv url: http://arxiv.org/abs/2510.00833v1
- Date: Wed, 01 Oct 2025 12:45:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.560051
- Title: Towards Verifiable Federated Unlearning: Framework, Challenges, and The Road Ahead
- Title(参考訳): 検証可能なフェデレーション・アンラーニングに向けて - フレームワーク、課題、道のり
- Authors: Thanh Linh Nguyen, Marcela Tuler de Oliveira, An Braeken, Aaron Yi Ding, Quoc-Viet Pham,
- Abstract要約: フェデレーション・アンラーニング(FUL)は、分散クライアント間でトレーニングされたモデルからデータの影響を取り除くことを可能にする。
この記事では、検証エンティティ、目標、アプローチ、メトリクスを形式化する検証FULの参照フレームワークであるVeriFULを紹介します。
- 参考スコア(独自算出の注目度): 6.530323505784683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated unlearning (FUL) enables removing the data influence from the model trained across distributed clients, upholding the right to be forgotten as mandated by privacy regulations. FUL facilitates a value exchange where clients gain privacy-preserving control over their data contributions, while service providers leverage decentralized computing and data freshness. However, this entire proposition is undermined because clients have no reliable way to verify that their data influence has been provably removed, as current metrics and simple notifications offer insufficient assurance. We envision unlearning verification becoming a pivotal and trust-by-design part of the FUL life-cycle development, essential for highly regulated and data-sensitive services and applications like healthcare. This article introduces veriFUL, a reference framework for verifiable FUL that formalizes verification entities, goals, approaches, and metrics. Specifically, we consolidate existing efforts and contribute new insights, concepts, and metrics to this domain. Finally, we highlight research challenges and identify potential applications and developments for verifiable FUL and veriFUL.
- Abstract(参考訳): フェデレート・アンラーニング(FUL)は、分散クライアント間でトレーニングされたモデルからデータの影響を取り除くことを可能にし、プライバシ規制によって義務付けられたものとして忘れられる権利を擁護する。
FULは、クライアントがデータコントリビューションに対してプライバシ保護のコントロールを得るためのバリュー交換を促進する一方で、サービスプロバイダは分散コンピューティングとデータの鮮度を活用する。
しかし、現在のメトリクスと単純な通知が不十分な保証を提供するため、クライアントはデータの影響が確実に削除されたことを確認する信頼できる方法を持っていないため、この提案全体が損なわれている。
我々は、未学習の検証がFULライフサイクル開発の重要かつ信頼性の高い部分となり、高度に規制されデータに敏感なサービスや医療などのアプリケーションに不可欠なものになるだろうと考えている。
この記事では、検証エンティティ、目標、アプローチ、メトリクスを形式化する検証FULの参照フレームワークであるVeriFULを紹介します。
具体的には、既存の取り組みを統合し、この領域に新たな洞察、概念、メトリクスを提供します。
最後に、FULとVeriFULの検証のための研究課題と潜在的な応用と開発について述べる。
関連論文リスト
- Improving Regulatory Oversight in Online Content Moderation [2.1082552608122542]
欧州連合は、デジタルプラットフォームに関連するリスクに対処し、より安全なオンライン環境を促進するために、デジタルサービス法(DSA)を導入した。
透明性データベース(Transparency Database)や透明性レポート(Transparency Reports)、プラットフォーム透明性を改善するためのDSAの第40条といったコンポーネントの可能性にもかかわらず、大きな課題は残る。
データの不整合や詳細な情報の欠如など,コンテンツのモデレーションプラクティスの透明性を損なうものもあります。
論文 参考訳(メタデータ) (2025-06-04T16:38:25Z) - DP-RTFL: Differentially Private Resilient Temporal Federated Learning for Trustworthy AI in Regulated Industries [0.0]
本稿では,DP-RTFL(Disferially Private Resilient Temporal Federated Learning)を紹介する。
トレーニングの継続性、正確な状態回復、強力なデータプライバシを保証するように設計されている。
このフレームワークは、機密性の高い財務データを使用した信用リスク評価のような重要なアプリケーションに特に適している。
論文 参考訳(メタデータ) (2025-05-27T16:30:25Z) - Empirical Analysis of Privacy-Fairness-Accuracy Trade-offs in Federated Learning: A Step Towards Responsible AI [6.671649946926508]
フェデレーテッド・ラーニング(FL)におけるプライバシ・フェアネス・ユーティリティ・トレードオフに関する大規模な実証的研究について紹介する。
フェアネス・アウェアと差分プライバシー(DP)、同相暗号化(HE)、セキュアマルチパーティ暗号化(SMC)を比較した。
DPメカニズムは、公平性、歪み、公平性に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2025-03-20T15:31:01Z) - Privacy-Preserving Verifiable Neural Network Inference Service [4.131956503199438]
我々は,クライアントデータサンプルのプライバシを保存するために,プライバシ保護と検証が可能なCNN推論手法を開発した。
vPINは、クライアントデータのプライバシ保証と証明可能な検証性を提供しながら、証明サイズの観点から高い効率を達成する。
論文 参考訳(メタデータ) (2024-11-12T01:09:52Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。