論文の概要: Secure Multi-User Linearly-Separable Distributed Computing
- arxiv url: http://arxiv.org/abs/2602.02489v1
- Date: Mon, 02 Feb 2026 18:59:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.39249
- Title: Secure Multi-User Linearly-Separable Distributed Computing
- Title(参考訳): セキュアなマルチユーザ線形分離型分散コンピューティング
- Authors: Amir Masoud Jafarpisheh, Ali Khalesi, Petros Elia,
- Abstract要約: ユーザの並列処理が比較的少ない計算と通信コストで大きな並列化ゲインが得られることを示す。
このアプローチは、ほぼ最適性能を提供するが、その線形性はデータの機密性に関する懸念を提起している。
ここでは、情報理論の秘密化フレームワークを採用し、各ユーザが要求された機能以外に何も学べないことを保証する。
- 参考スコア(独自算出の注目度): 18.72935137242268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The introduction of the new multi-user linearly-separable distributed computing framework, has recently revealed how a parallel treatment of users can yield large parallelization gains with relatively low computation and communication costs. These gains stem from a new approach that converts the computing problem into a sparse matrix factorization problem; a matrix $F$ that describes the users' requests, is decomposed as \(F = DE\), where a \(γ\)-sparse \(E\) defines the task allocation across $N$ servers, and a \(δ\)-sparse \(D\) defines the connectivity between \(N\) servers and \(K\) users as well as the decoding process. While this approach provides near-optimal performance, its linear nature has raised data secrecy concerns. We here adopt an information-theoretic secrecy framework, seeking guarantees that each user can learn nothing more than its own requested function. In this context, our main result provides two necessary and sufficient secrecy criteria; (i) for each user \(k\) who observes $α_k$ server responses, the common randomness visible to that user must span a subspace of dimension exactly $α_k-1$, and (ii) for each user, removing from \(\mathbf{D}\) the columns corresponding to the servers it observes must leave a matrix of rank at least \(K-1\). With these conditions in place, we design a general scheme -- that applies to finite and non-finite fields alike -- which is based on appending to \(\mathbf{E}\) a basis of \(\mathrm{Null}(\mathbf{D})\) and by carefully injecting shared randomness. In many cases, this entails no additional costs. The scheme, while maintaining performance, guarantees perfect information-theoretic secrecy in the case of finite fields, while in the real case, the conditions yield an explicit mutual-information bound that can be made arbitrarily small by increasing the variance of Gaussian common randomness.
- Abstract(参考訳): 新たなマルチユーザ線形分離型分散コンピューティングフレームワークの導入により,ユーザの並列処理が比較的少ない計算と通信コストで大きな並列化ゲインを得ることができることが明らかになった。
ユーザの要求を記述した行列$F$は \(F = DE\) と分解され、 \(γ\)-スパース \(E\) は$N$サーバ間のタスク割り当てを定義し、 \(δ\)-スパース \(D\) は \(N\) サーバと \(K\) ユーザ間の接続を定義する。
このアプローチは、ほぼ最適性能を提供するが、その線形性はデータの機密性に関する懸念を提起している。
ここでは、情報理論の秘密化フレームワークを採用し、各ユーザが要求された機能以外に何も学べないことを保証する。
この文脈では、我々の主な成果は2つの必要十分機密性基準を提供する。
(i)$α_k$サーバ応答を観測する各ユーザ \(k\) に対して、そのユーザに見える共通ランダム性は、正確に$α_k-1$の次元のサブ空間にまたがらなければならない。
(ii) 各ユーザに対して、観測するサーバに対応する列を \(\mathbf{D}\) から削除するには、少なくとも \(K-1\) のランクの行列を残さなければならない。
これらの条件が成立すると、我々は、(\mathbf{E}\) に \(\mathrm{Null}(\mathbf{D})\) を付加し、共有ランダム性を慎重に注入する一般的なスキームを設計する。
多くの場合、追加費用はかからない。
このスキームは、性能を維持しながら、有限体の場合において完全な情報理論の機密性を保証する一方で、実例では、条件はガウス共通乱数性の分散を増大させることで任意に小さくできる明示的な相互情報境界を生じる。
関連論文リスト
- Private Model Personalization Revisited [13.4143747448136]
共有表現フレームワークにおけるユーザレベルの差分プライバシー(DP)に基づくモデルパーソナライゼーションについて検討する。
我々のゴールは、共有埋め込みと局所的な低次元表現を極小リスクでプライベートに回収することである。
共有埋め込みをプライベートに学習し、マージンベースの精度保証を導出するための情報理論構築を提案する。
論文 参考訳(メタデータ) (2025-06-24T00:57:17Z) - A Linearized Alternating Direction Multiplier Method for Federated Matrix Completion Problems [2.2217927229805032]
マトリックス補完は、パーソナライズされた医療、電子商取引、レコメンデーションシステム、ソーシャルネットワーク分析における幅広い応用で欠落したデータを予測するための基本となる。
伝統的な行列補完アプローチは典型的には集中型データストレージを前提としている。
フェデレートされた行列補完問題の解法としてtextttFedMC-ADMM を提案する。
論文 参考訳(メタデータ) (2025-03-17T01:57:06Z) - On Computing Pairwise Statistics with Local Differential Privacy [55.81991984375959]
例えば$binomn2-1 sum_i ne j f(x_i, x_j)$, $x_i$ は$i$thユーザへの入力を表し、ローカルモデルでは差分プライバシ(DP)である。
この定式化は、Kendallの$tau$ coefficient、Area Under Curve、Giniの平均差、Giniのエントロピーなどの重要なメトリクスをキャプチャする。
論文 参考訳(メタデータ) (2024-06-24T04:06:09Z) - Federated Combinatorial Multi-Agent Multi-Armed Bandits [79.1700188160944]
本稿では,Banditを用いたオンライン最適化に適したフェデレーション学習フレームワークを提案する。
この設定では、エージェントのアームサブセットは、個々のアーム情報にアクセスせずにこれらのサブセットに対するノイズの多い報酬を観察し、特定の間隔で協力して情報を共有することができる。
論文 参考訳(メタデータ) (2024-05-09T17:40:09Z) - Some Constructions of Private, Efficient, and Optimal $K$-Norm and Elliptic Gaussian Noise [54.34628844260993]
微分プライベートな計算は、しばしば$d$次元統計学の感度に束縛されて始まる。
純粋な微分プライバシーのために、$K$-normメカニズムは統計学の感度空間に合わせた規範を用いてこのアプローチを改善することができる。
本稿では,総和,数,投票の単純な統計量について両問題を解く。
論文 参考訳(メタデータ) (2023-09-27T17:09:36Z) - Scalable Differentially Private Clustering via Hierarchically Separated
Trees [82.69664595378869]
我々は,最大$O(d3/2log n)cdot OPT + O(k d2 log2 n / epsilon2)$,$epsilon$はプライバシ保証であることを示す。
最悪の場合の保証は、最先端のプライベートクラスタリング手法よりも悪いが、提案するアルゴリズムは実用的である。
論文 参考訳(メタデータ) (2022-06-17T09:24:41Z) - Single-Server Private Linear Transformation: The Joint Privacy Case [10.072633952908456]
本稿では,プライベート情報検索とプライベート線形計算の問題を一般化するPLT(Private Linear Transformation)の問題を紹介する。
この問題には、1つ以上のリモートサーバが$K$メッセージを格納する(IDコピー)ことと、$D$サブセットの独立線形結合を$L$で計算したいユーザが含まれている。
論文 参考訳(メタデータ) (2021-06-09T17:09:22Z) - Fuzzy Clustering with Similarity Queries [56.96625809888241]
ファジィ(fuzzy, soft objective)は、よく知られた$k$-means問題の一般化である。
クエリを少なくすることで、問題の解決が容易になる。
論文 参考訳(メタデータ) (2021-06-04T02:32:26Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。