論文の概要: Zero-Knowledge Federated Learning: A New Trustworthy and Privacy-Preserving Distributed Learning Paradigm
- arxiv url: http://arxiv.org/abs/2503.15550v2
- Date: Mon, 24 Mar 2025 03:55:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 11:09:56.135207
- Title: Zero-Knowledge Federated Learning: A New Trustworthy and Privacy-Preserving Distributed Learning Paradigm
- Title(参考訳): Zero-Knowledge Federated Learning - 信頼性とプライバシ保護を備えた分散学習パラダイム
- Authors: Yuxin Jin, Taotao Wang, Qing Yang, Long Shi, Shengli Zhang,
- Abstract要約: フェデレートラーニング(FL)は、分散機械学習において有望なパラダイムとして登場した。
ZKPは、FLプロセス全体で信頼を確立し、システムの完全性を高めることで、潜在的なソリューションを提供する。
まず、ZKPの技術的役割を分類し分析する構造化ZK-FLフレームワークを提案する。
第2に、ZKPを用いてクライアント選択プロセスを洗練させる新しいアルゴリズム、Veri-CS-FLを導入する。
- 参考スコア(独自算出の注目度): 12.329085185367637
- License:
- Abstract: Federated Learning (FL) has emerged as a promising paradigm in distributed machine learning, enabling collaborative model training while preserving data privacy. However, despite its many advantages, FL still contends with significant challenges -- most notably regarding security and trust. Zero-Knowledge Proofs (ZKPs) offer a potential solution by establishing trust and enhancing system integrity throughout the FL process. Although several studies have explored ZKP-based FL (ZK-FL), a systematic framework and comprehensive analysis are still lacking. This article makes two key contributions. First, we propose a structured ZK-FL framework that categorizes and analyzes the technical roles of ZKPs across various FL stages and tasks. Second, we introduce a novel algorithm, Verifiable Client Selection FL (Veri-CS-FL), which employs ZKPs to refine the client selection process. In Veri-CS-FL, participating clients generate verifiable proofs for the performance metrics of their local models and submit these concise proofs to the server for efficient verification. The server then selects clients with high-quality local models for uploading, subsequently aggregating the contributions from these selected clients. By integrating ZKPs, Veri-CS-FL not only ensures the accuracy of performance metrics but also fortifies trust among participants while enhancing the overall efficiency and security of FL systems.
- Abstract(参考訳): フェデレートラーニング(FL)は分散機械学習において有望なパラダイムとして登場し、データのプライバシを維持しながら協調的なモデルトレーニングを可能にしている。
しかし、多くの優位性にもかかわらず、FLは依然として重要な課題、特にセキュリティと信頼に関して争っている。
Zero-Knowledge Proofs (ZKPs) は、FLプロセス全体を通じて信頼を確立し、システムの完全性を高めることで、潜在的なソリューションを提供する。
いくつかの研究がZKPベースのFL (ZK-FL) を探索しているが、体系的な枠組みと包括的分析はいまだに不足している。
この記事では2つの重要な貢献をします。
まず、ZKPの技術的役割を様々なFLステージやタスクで分類し分析する構造化ZK-FLフレームワークを提案する。
第2に、ZKPを用いてクライアント選択プロセスを洗練させる新しいアルゴリズム、Veri-CS-FLを導入する。
Veri-CS-FLでは、参加するクライアントは、ローカルモデルのパフォーマンス指標の検証可能な証明を生成し、これらの簡潔な証明をサーバに送信し、効率的な検証を行う。
サーバは、アップロードのための高品質なローカルモデルを持つクライアントを選択し、その後、選択したクライアントからのコントリビューションを集約する。
ZKPを統合することで、Veri-CS-FLはパフォーマンスメトリクスの精度を確保するだけでなく、FLシステムの全体的な効率性とセキュリティを高めながら、参加者間の信頼を固める。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Federated Fine-Tuning of LLMs: Framework Comparison and Research Directions [59.5243730853157]
Federated Learning(FL)は、分散プライベートデータセットを使用して、トレーニング済みの大規模言語モデル(LLM)を微調整するための、プライバシ保護ソリューションを提供する。
本稿では、知識蒸留(KD)とスプリットラーニング(SL)を統合し、これらの問題を緩和する3つの先進的連合LLM(FedLLM)フレームワークの比較分析を行う。
論文 参考訳(メタデータ) (2025-01-08T11:37:06Z) - Novel clustered federated learning based on local loss [14.380553970274242]
本稿では,学習におけるデータ分布を評価するための新しい指標LCFLを提案する。
学習要件と整合し、プライバシー上の懸念に正確に対応し、より正確な分類を提供する。
論文 参考訳(メタデータ) (2024-07-12T15:37:05Z) - Embracing Federated Learning: Enabling Weak Client Participation via Partial Model Training [21.89214794178211]
フェデレートラーニング(FL)では、クライアントは完全なモデルをトレーニングしたり、メモリ空間に保持することができない弱いデバイスを持っているかもしれない。
我々は、すべての利用可能なクライアントが分散トレーニングに参加することを可能にする、一般的なFLフレームワークであるEnbracingFLを提案する。
実験により,FL の導入は,すべてのクライアントが強力であるように常に高い精度を達成し,最先端の幅削減手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-21T13:19:29Z) - zkFL: Zero-Knowledge Proof-based Gradient Aggregation for Federated Learning [13.086807746204597]
フェデレートラーニング(FL)は、中央アグリゲータのオーケストレーションの下で、複数の分散クライアントが協力してモデルをトレーニングできる機械学習パラダイムである。
従来のFLは、クライアントのコホートを正直に形成する中心集合体の信頼前提に依存している。
我々は、ゼロ知識証明を利用して、トレーニングモデル集約プロセス中に悪意あるアグリゲータの問題に取り組むzkFLを紹介した。
論文 参考訳(メタデータ) (2023-10-04T03:24:33Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - A Fair Federated Learning Framework With Reinforcement Learning [23.675056844328]
フェデレートラーニング(Federated Learning, FL)は、多くのクライアントが中央サーバの協調の下でモデルを協調的にトレーニングするパラダイムである。
本稿では,クライアントにアグリゲーション重み付けを割り当てるポリシを自動的に学習するPG-FFLという強化学習フレームワークを提案する。
フレームワークの有効性を検証するため、多様なデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2022-05-26T15:10:16Z) - Dubhe: Towards Data Unbiasedness with Homomorphic Encryption in
Federated Learning Client Selection [16.975086164684882]
Federated Learning(FL)は、クライアントが自身のローカルデータ上でモデルを協調的にトレーニングできる分散機械学習パラダイムである。
FLの性能劣化の原因を数学的に検証し,様々なデータセット上でのFLの性能について検討する。
そこで我々はDubheという名のプラグイン可能なシステムレベルのクライアント選択手法を提案し,HEの助けを借りてクライアントを積極的にトレーニングに参加させ,プライバシを保護できるようにする。
論文 参考訳(メタデータ) (2021-09-08T13:00:46Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。