論文の概要: Privacy-aware Berrut Approximated Coded Computing applied to general distributed learning
- arxiv url: http://arxiv.org/abs/2505.06759v1
- Date: Sat, 10 May 2025 21:27:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.028671
- Title: Privacy-aware Berrut Approximated Coded Computing applied to general distributed learning
- Title(参考訳): 一般分散学習に応用したプライバシを考慮したBerrut近似コード計算
- Authors: Xavier Martínez-Luaña, Manuel Fernández-Veiga, Rebeca P. Díaz-Redondo, Ana Fernández-Vilas,
- Abstract要約: 本稿では,PBACC(Private Berrut Approximate Coded Computing)を,フェデレート学習に強いが不完全なプライバシを付加する一般的なソリューションとして用いることを検討する。
我々は、集中集約のための新しい適応PBACCアルゴリズム、集中型データによる安全な分散トレーニング、分散化されたデータによるセキュアな分散トレーニングを導出する。
- 参考スコア(独自算出の注目度): 2.8123958518740544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coded computing is one of the techniques that can be used for privacy protection in Federated Learning. However, most of the constructions used for coded computing work only under the assumption that the computations involved are exact, generally restricted to special classes of functions, and require quantized inputs. This paper considers the use of Private Berrut Approximate Coded Computing (PBACC) as a general solution to add strong but non-perfect privacy to federated learning. We derive new adapted PBACC algorithms for centralized aggregation, secure distributed training with centralized data, and secure decentralized training with decentralized data, thus enlarging significantly the applications of the method and the existing privacy protection tools available for these paradigms. Particularly, PBACC can be used robustly to attain privacy guarantees in decentralized federated learning for a variety of models. Our numerical results show that the achievable quality of different learning models (convolutional neural networks, variational autoencoders, and Cox regression) is minimally altered by using these new computing schemes, and that the privacy leakage can be bounded strictly to less than a fraction of one bit per participant. Additionally, the computational cost of the encoding and decoding processes depends only of the degree of decentralization of the data.
- Abstract(参考訳): コーディングコンピューティングは、フェデレートラーニングにおけるプライバシ保護に使用できるテクニックの1つである。
しかし、コード化された計算に用いられる構成のほとんどは、計算が正確に、一般に関数の特別なクラスに制限され、量子化された入力を必要とするという仮定の下でのみ動作する。
本稿では,PBACC(Private Berrut Approximate Coded Computing)を,フェデレート学習に強いが不完全なプライバシを付加する一般的なソリューションとして用いることを検討する。
我々は、集中集約、集中データによる安全な分散トレーニング、分散データによるセキュアな分散トレーニングのための新しいPBACCアルゴリズムを導出し、これらのパラダイムで利用可能なメソッドと既存のプライバシ保護ツールの適用を著しく拡大する。
特にPBACCは、さまざまなモデルの分散化されたフェデレーション学習において、プライバシーを保証するために、堅牢に使用することができる。
我々の数値計算結果によると、これらの新しい計算手法を用いることで、異なる学習モデル(畳み込みニューラルネットワーク、変分オートエンコーダ、コックス回帰)の達成可能な品質が最小限に変化し、プライバシリークを1ビット当たり1ビット未満に厳密に制限できることが示されている。
さらに、符号化と復号処理の計算コストは、データの分散化の度合いにのみ依存する。
関連論文リスト
- Federated Learning with Quantum Computing and Fully Homomorphic Encryption: A Novel Computing Paradigm Shift in Privacy-Preserving ML [4.92218040320554]
フェデレートラーニング(Federated Learning)は、複数の学習クライアントがプライベートデータを公開せずにモデル知識を共有できるようにする、従来の方法に代わるプライバシ保護手法である。
この研究は、古典層と量子層の両方を統合するフェデレート学習ニューラルネットワークアーキテクチャに完全同型暗号化スキームを適用した。
論文 参考訳(メタデータ) (2024-09-14T01:23:26Z) - Privacy-aware Berrut Approximated Coded Computing for Federated Learning [1.2084539012992408]
フェデレートラーニングスキームにおけるプライバシを保証するためのソリューションを提案する。
本提案は,Secret Sharing設定に適応したBerrut Approximated Coded Computingに基づく。
論文 参考訳(メタデータ) (2024-05-02T20:03:13Z) - Sparse Decentralized Federated Learning [35.32297764027417]
分散フェデレートラーニング(DFL)は、中央サーバーなしで協調的なモデルトレーニングを可能にするが、効率、安定性、信頼性の課題に直面している。
Sparse DFL (SDFL) に繋がる共有モデルに空間制約を導入し,新しいアルゴリズムCEPSを提案する。
数値実験により,高い信頼性を維持しつつ,コミュニケーションと効率を向上させるための提案アルゴリズムの有効性が検証された。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。