論文の概要: Flexible Threshold Multi-client Functional Encryption for Inner Product in Federated Learning
- arxiv url: http://arxiv.org/abs/2510.15367v1
- Date: Fri, 17 Oct 2025 06:58:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.505552
- Title: Flexible Threshold Multi-client Functional Encryption for Inner Product in Federated Learning
- Title(参考訳): フェデレーション学習における内部製品のためのフレキシブル閾値多言語機能暗号化
- Authors: Ruyuan Zhang, Jinguang Han, Liqun Chen,
- Abstract要約: Federated Learning(FL)は、複数のクライアントがローカルデータを開示することなく、共同で共有モデルをトレーニングできる分散機械学習パラダイムである。
本稿では,内積方式(FTMCFE-IP)のためのフレキシブルしきい値多重クライアント関数暗号を設計する。
- 参考スコア(独自算出の注目度): 6.909482184241419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a distributed machine learning paradigm that enables multiple clients to collaboratively train a shared model without disclosing their local data. To address privacy issues of gradient, several privacy-preserving machine-learning schemes based on multi-client functional encryption (MCFE) have been proposed. However, existing MCFE-based schemes cannot support client dropout or flexible threshold selection, which are essential for practical FL. In this paper, we design a flexible threshold multi-client functional encryption for inner product (FTMCFE-IP) scheme, where multiple clients generate ciphertexts independently without any interaction. In the encryption phase, clients are able to choose a threshold flexibly without reinitializing the system. The decryption can be performed correctly when the number of online clients satisfies the threshold. An authorized user are allowed to compute the inner product of the vectors associated with his/her functional key and the ciphertext, respectively, but cannot learning anything else. Especially, the presented scheme supports clients drop out. Furthermore, we provide the definition and security model of our FTMCFE-IP scheme,and propose a concrete construction. The security of the designed scheme is formally proven. Finally, we implement and evaluate our FTMCFE-IP scheme.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントがローカルデータを開示することなく、共同で共有モデルをトレーニングできる分散機械学習パラダイムである。
勾配のプライバシー問題に対処するために、マルチクライアント関数暗号(MCFE)に基づくいくつかのプライバシー保護機械学習スキームが提案されている。
しかし、既存のMCFEベースのスキームではクライアントのドロップアウトやフレキシブルなしきい値選択はサポートできない。
本稿では,内部製品 (FTMCFE-IP) のためのフレキシブルしきい値多重クライアント関数暗号を設計する。
暗号化フェーズでは、クライアントはシステムを再起動することなく、フレキシブルにしきい値を選択することができる。
オンラインクライアントの数がしきい値を満たす場合には、復号化を正しく行うことができる。
認証されたユーザは、自身の機能キーと暗号文に関連付けられたベクトルの内部積を計算することができるが、他のものは学べない。
特に、提示されたスキームは、クライアントのドロップアウトをサポートする。
さらに,FTMCFE-IP方式の定義とセキュリティモデルを提供し,具体的な構成を提案する。
設計計画の安全性は正式に証明されている。
最後に、FTMCFE-IP方式を実装し、評価する。
関連論文リスト
- Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - VFEFL: Privacy-Preserving Federated Learning against Malicious Clients via Verifiable Functional Encryption [3.329039715890632]
フェデレートラーニング(Federated Learning)は、ローカルクライアントデータを公開せずに協調的なモデルトレーニングを可能にする、有望な分散学習パラダイムである。
フェデレーション学習の分散した性質は、悪意のあるクライアントによる攻撃に対して特に脆弱である。
本稿では,検証可能な機能暗号化に基づくプライバシ保護型フェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-15T13:38:40Z) - Not All Clients Are Equal: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients [59.52341877720199]
計算コストを伴わずに異種アーキテクチャ間の知識共有を可能にするFedMosaicを提案する。
実世界のタスクの多様性を模倣するために,40の異なるタスクにまたがるマルチモーダルPFLベンチマークを提案する。
実証研究は、FedMosaicが最先端のPFL法より優れていることを示している。
論文 参考訳(メタデータ) (2025-05-20T09:17:07Z) - Enhancing Noisy Functional Encryption for Privacy-Preserving Machine Learning [0.0]
関数暗号(FE)はプライバシー保護機械学習(PPML)に関心を寄せている。
我々はノイズ多入力関数暗号(NMIFE)の概念を(動的)雑音多クライアント関数暗号((Dy)NMCFE)に拡張する。
論文 参考訳(メタデータ) (2025-05-09T07:33:09Z) - Secure Aggregation in Federated Learning using Multiparty Homomorphic Encryption [17.98928470989766]
連合学習における重要な操作は、個々のクライアントノードによって生成される勾配ベクトルの集約である。
我々は,この集約を中央ノードが計算できるように,多党同型暗号(MPHE)に基づく手法を開発した。
我々は,クライアントノードのサブセットのみが利用可能であっても,集約ベクトルの復号化が成功するように,従来のMPHEメソッドを拡張した。
論文 参考訳(メタデータ) (2025-03-01T18:19:25Z) - Multi-client Functional Encryption for Set Intersection with Non-monotonic Access Structures in Federated Learning [1.2891210250935148]
クラウドサーバに基づくフェデレーション学習(FL)は、分散機械学習フレームワークである。
非単調なアクセス構造を持つ集合交差に対するマルチクライアント機能暗号方式を提案する。
論文 参考訳(メタデータ) (2024-12-12T13:19:12Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。