論文の概要: FedPoP: Federated Learning Meets Proof of Participation
- arxiv url: http://arxiv.org/abs/2511.08207v1
- Date: Wed, 12 Nov 2025 01:46:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.697882
- Title: FedPoP: Federated Learning Meets Proof of Participation
- Title(参考訳): FedPoP:フェデレーション・ラーニングは参加の証だ
- Authors: Devriş İşler, Elina van Kempen, Seoyeon Hwang, Nikolaos Laoutaris,
- Abstract要約: Federated Learning (FL)は、プライバシ保護、分散機械学習を提供する。
クライアントはローカルデータを公開せずにグローバルモデルにコントリビュートすることができる。
我々は、非リンク可能な参加証明を可能にする新しいFLフレームワークであるFedPoPを紹介する。
- 参考スコア(独自算出の注目度): 1.8607644258473375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) offers privacy preserving, distributed machine learning, allowing clients to contribute to a global model without revealing their local data. As models increasingly serve as monetizable digital assets, the ability to prove participation in their training becomes essential for establishing ownership. In this paper, we address this emerging need by introducing FedPoP, a novel FL framework that allows nonlinkable proof of participation while preserving client anonymity and privacy without requiring either extensive computations or a public ledger. FedPoP is designed to seamlessly integrate with existing secure aggregation protocols to ensure compatibility with real-world FL deployments. We provide a proof of concept implementation and an empirical evaluation under realistic client dropouts. In our prototype, FedPoP introduces 0.97 seconds of per-round overhead atop securely aggregated FL and enables a client to prove its participation/contribution to a model held by a third party in 0.0612 seconds. These results indicate FedPoP is practical for real-world deployments that require auditable participation without sacrificing privacy.
- Abstract(参考訳): Federated Learning(FL)は、プライバシ保護、分散機械学習を提供し、クライアントがローカルデータを公開せずにグローバルモデルにコントリビュートできるようにする。
モデルがますますマネタイズ可能なデジタル資産として機能するにつれて、彼らのトレーニングへの参加を証明する能力は、オーナーシップを確立する上で欠かせないものとなる。
本稿では,クライアントの匿名性やプライバシを維持しつつ,広範な計算処理や公開台帳を必要とせずに,非リンク可能な参加証明を可能にする新しいFLフレームワークであるFedPoPを導入することにより,このニーズに対処する。
FedPoPは、既存のセキュアアグリゲーションプロトコルとシームレスに統合して、現実世界のFLデプロイメントとの互換性を確保するように設計されている。
本稿では,現実的なクライアントのドロップアウトにおける概念実装の実証と経験的評価について述べる。
プロトタイプでは、FedPoPは、セキュアに集約されたFLの上に1ラウンドあたり0.97秒のオーバーヘッドを導入し、クライアントが0.0612秒で第三者が保持するモデルへの参加/貢献を証明できるようにします。
これらの結果は、プライバシを犠牲にすることなく監査可能な参加を必要とする現実世界のデプロイメントにおいて、FedPoPが実用的であることを示唆している。
関連論文リスト
- Enhancing Model Privacy in Federated Learning with Random Masking and Quantization [46.915409150222494]
大規模言語モデル(LLM)の台頭は、分散システムに新たな課題をもたらした。
これは、センシティブなデータとプロプライエタリなモデルの両方を保護可能な、フェデレーション付き学習アプローチの必要性を強調している。
モデルパラメータのサブネットワークを隠蔽するためにランダムマスキングを利用するフェデレート学習手法であるFedQSNを提案する。
論文 参考訳(メタデータ) (2025-08-26T10:34:13Z) - Whom to Trust? Adaptive Collaboration in Personalized Federated Learning [11.923664505655026]
共同作業における適応性ときめ細かな信頼は、個々の事例のレベルで、フェデレートされた半教師付き学習において達成可能であることを示す。
FEDMOSAICは、顧客による個人別合意と信頼度に基づいて、その損失と擬似ラベルへの貢献を重み付けするパーソナライズされた協調学習手法である。
論文 参考訳(メタデータ) (2025-06-30T20:53:01Z) - Zero-Knowledge Federated Learning: A New Trustworthy and Privacy-Preserving Distributed Learning Paradigm [12.329085185367637]
フェデレートラーニング(FL)は、分散機械学習において有望なパラダイムとして登場した。
ZKPは、FLプロセス全体で信頼を確立し、システムの完全性を高めることで、潜在的なソリューションを提供する。
まず、ZKPの技術的役割を分類し分析する構造化ZK-FLフレームワークを提案する。
第2に、ZKPを用いてクライアント選択プロセスを洗練させる新しいアルゴリズム、Veri-CS-FLを導入する。
論文 参考訳(メタデータ) (2025-03-18T06:21:08Z) - PA-CFL: Privacy-Adaptive Clustered Federated Learning for Transformer-Based Sales Forecasting on Heterogeneous Retail Data [47.745068077169954]
フェデレートラーニング(FL)により、小売店はプライバシを維持しながら需要予測のためのモデルパラメータを共有できる。
異種小売データの需要予測に適したプライバシ適応クラスタ型フェデレートラーニング(PA-CFL)を提案する。
論文 参考訳(メタデータ) (2025-03-15T18:07:54Z) - FedP3: Federated Personalized and Privacy-friendly Network Pruning under Model Heterogeneity [82.5448598805968]
我々は、フェデレートされたパーソナライズされたプライバシフレンドリーなネットワークプルーニングを表現する、効果的で適応可能なフェデレーションフレームワークであるFedP3を提案する。
我々は、FedP3とその局所微分プライベート変種DP-FedP3の理論解釈を提供し、それらの効率を理論的に検証する。
論文 参考訳(メタデータ) (2024-04-15T14:14:05Z) - Provable Mutual Benefits from Federated Learning in Privacy-Sensitive Domains [3.3748750222488657]
クロスサイロフェデレーション学習により、データ所有者は、互いにプライベートデータセットから利益を得て、正確な機械学習モデルをトレーニングできる。
プライバシーに敏感なドメインへのクライアントの参加を促進するために、FLプロトコルはプライバシー保証とエンドモデル精度の微妙なバランスをとる必要がある。
我々は、サーバがFLプロトコルを設計できる時期と方法について、すべての参加者にとって有益であるかどうかを調査する。
論文 参考訳(メタデータ) (2024-03-11T12:43:44Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。