論文の概要: Information-Theoretic Decentralized Secure Aggregation with Collusion Resilience
- arxiv url: http://arxiv.org/abs/2508.00596v1
- Date: Fri, 01 Aug 2025 12:51:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.883456
- Title: Information-Theoretic Decentralized Secure Aggregation with Collusion Resilience
- Title(参考訳): 衝突抵抗を考慮した情報理論的分散型セキュアアグリゲーション
- Authors: Xiang Zhang, Zhou Li, Shuangyang Li, Kai Wan, Derrick Wing Kwan Ng, Giuseppe Caire,
- Abstract要約: 情報理論の観点から分散型セキュアアグリゲーション(DSA)の問題点を考察する。
DSAの最小到達可能な通信量と秘密鍵率を指定する最適レート領域を特徴付ける。
本研究は,DSAの基本性能限界を確立し,信頼性の高い通信効率の高いプロトコルの設計に関する知見を提供する。
- 参考スコア(独自算出の注目度): 98.31540557973179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In decentralized federated learning (FL), multiple clients collaboratively learn a shared machine learning (ML) model by leveraging their privately held datasets distributed across the network, through interactive exchange of the intermediate model updates. To ensure data security, cryptographic techniques are commonly employed to protect model updates during aggregation. Despite growing interest in secure aggregation, existing works predominantly focus on protocol design and computational guarantees, with limited understanding of the fundamental information-theoretic limits of such systems. Moreover, optimal bounds on communication and key usage remain unknown in decentralized settings, where no central aggregator is available. Motivated by these gaps, we study the problem of decentralized secure aggregation (DSA) from an information-theoretic perspective. Specifically, we consider a network of $K$ fully-connected users, each holding a private input -- an abstraction of local training data -- who aim to securely compute the sum of all inputs. The security constraint requires that no user learns anything beyond the input sum, even when colluding with up to $T$ other users. We characterize the optimal rate region, which specifies the minimum achievable communication and secret key rates for DSA. In particular, we show that to securely compute one symbol of the desired input sum, each user must (i) transmit at least one symbol to others, (ii) hold at least one symbol of secret key, and (iii) all users must collectively hold no fewer than $K - 1$ independent key symbols. Our results establish the fundamental performance limits of DSA, providing insights for the design of provably secure and communication-efficient protocols in distributed learning systems.
- Abstract(参考訳): 分散フェデレーション学習(FL)では、複数のクライアントが、中間モデルの更新をインタラクティブに交換することで、プライベートに保持されたデータセットを活用して、共有機械学習(ML)モデルを協調的に学習する。
データセキュリティを確保するため、集約中のモデル更新を保護するために、一般的に暗号技術が使用される。
セキュアアグリゲーションへの関心が高まっているにもかかわらず、既存の研究は主にプロトコル設計と計算の保証に焦点を当てており、そのようなシステムの基本的な情報理論の限界を限定的に理解している。
さらに、中央アグリゲータが利用できない分散化環境では、コミュニケーションとキー使用の最適境界が依然として不明である。
これらのギャップにより、情報理論の観点から分散化されたセキュアアグリゲーション(DSA)の問題を研究する。
具体的には,すべての入力の総和をセキュアに計算することを目的とした,プライベートなインプット – ローカルなトレーニングデータの抽象化 – を持つ,K$の完全接続ユーザによるネットワークについて検討する。
セキュリティ制約は、最大$T$の他のユーザと衝突しても、入力和以上のことを学習するユーザがいないことを要求します。
DSAの最小到達可能な通信量と秘密鍵率を指定する最適レート領域を特徴付ける。
特に、所望の入力和の1つのシンボルを安全に計算するためには、各ユーザが確実に計算しなければならないことを示す。
(i)少なくとも1つのシンボルを他のシンボルに送信する。
(二)秘密鍵の少なくとも一つの記号を保有し、
(iii)すべてのユーザーは、合計で$K - 1$独立キーシンボルを持てなければならない。
本研究は,分散学習システムにおけるセキュアかつ通信効率のよいプロトコルの設計に関する知見を提供するため,DSAの基本的な性能限界を確立した。
関連論文リスト
- Fundamental Limits of Hierarchical Secure Aggregation with Cyclic User Association [93.46811590752814]
階層型セキュアアグリゲーションは、フェデレートラーニング(FL)によって動機付けられる
本稿では,各ユーザが連続する$B$のリレーに接続される循環型アソシエーションパターンを用いたHSAについて考察する。
勾配符号化にインスパイアされた入力に対するメッセージ設計を含む効率的なアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2025-03-06T15:53:37Z) - RLSA-PFL: Robust Lightweight Secure Aggregation with Model Inconsistency Detection in Privacy-Preserving Federated Learning [12.804623314091508]
フェデレートラーニング(FL)は、ローカルモデルを共有することで、中央サーバにプライベートデータを公開することなく、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
FLでは、敵が共有モデルパラメータから機密情報を推測する可能性のあるプライバシー上の脆弱性が報告されている。
本稿では,軽量な暗号プリミティブをプライバシリスクに利用したマスキングに基づくセキュアアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T06:01:09Z) - The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - EncCluster: Scalable Functional Encryption in Federated Learning through Weight Clustering and Probabilistic Filters [3.9660142560142067]
フェデレートラーニング(FL)は、アグリゲーションサーバにのみローカルモデルの更新を通信することで、分散デバイス間のモデルトレーニングを可能にする。
FLはモデル更新送信中に推論攻撃に弱いままである。
本稿では、重みクラスタリングによるモデル圧縮と、最近の分散型FEとプライバシ強化データエンコーディングを統合する新しい方法であるEncClusterを提案する。
論文 参考訳(メタデータ) (2024-06-13T14:16:50Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Communication-Computation Efficient Secure Aggregation for Federated
Learning [23.924656276456503]
フェデレーションラーニングは、ノードがデータを共有せずに、複数のノードに分散したデータを使用してニューラルネットワークを訓練する方法です。
セキュアアグリゲーションプリミティブに基づく最近のソリューションでは,プライバシ保護型のフェデレーション学習が可能だったが,通信/計算リソースが大幅に増加した。
通信・計算資源の量を大幅に削減する通信・計算効率のよいセキュアアグリゲーションを提案する。
論文 参考訳(メタデータ) (2020-12-10T03:17:50Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。