論文の概要: Privacy preserving n-party scalar product protocol
- arxiv url: http://arxiv.org/abs/2112.09436v1
- Date: Fri, 17 Dec 2021 11:14:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 21:39:23.996728
- Title: Privacy preserving n-party scalar product protocol
- Title(参考訳): プライバシ保護nパーティスカラー製品プロトコル
- Authors: Florian van Daalen (1) and Inigo Bermejo (1) and Lianne Ippel (2) and
Andre Dekkers (2) ((1) GROW School for Oncology and Developmental Biology
Maastricht University Medical Centre+ Maastricht the Netherlands, (2)
Statistics Netherlands Heerlen the Netherlands)
- Abstract要約: プライバシ保護機械学習は、データを公開することなく、分散データセット上のモデルのトレーニングを可能にする。
プライバシー保護スカラー製品プロトコルは、ベクトルのドット積を公開せずに可能にするもので、その汎用性の一例として人気がある。
本稿では,既存の2党方式に基づく任意の人数の当事者に対するプロトコルの一般化を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-preserving machine learning enables the training of models on
decentralized datasets without the need to reveal the data, both on horizontal
and vertically partitioned data. However, it relies on specialized techniques
and algorithms to perform the necessary computations. The privacy preserving
scalar product protocol, which enables the dot product of vectors without
revealing them, is one popular example for its versatility. Unfortunately, the
solutions currently proposed in the literature focus mainly on two-party
scenarios, even though scenarios with a higher number of data parties are
becoming more relevant. For example when performing analyses that require
counting the number of samples which fulfill certain criteria defined across
various sites, such as calculating the information gain at a node in a decision
tree. In this paper we propose a generalization of the protocol for an
arbitrary number of parties, based on an existing two-party method. Our
proposed solution relies on a recursive resolution of smaller scalar products.
After describing our proposed method, we discuss potential scalability issues.
Finally, we describe the privacy guarantees and identify any concerns, as well
as comparing the proposed method to the original solution in this aspect.
- Abstract(参考訳): プライバシ保存機械学習は、水平データと垂直分割データの両方で、データを明かすことなく、分散データセット上のモデルのトレーニングを可能にする。
しかし、必要な計算を行うには特殊な技術やアルゴリズムに依存する。
プライバシ保護スカラー製品プロトコルは、ベクターのドット生成を明かさずに実現し、その汎用性の一般的な例である。
残念ながら、文献で現在提案されているソリューションは、データパーティの数が多いシナリオがより関連性を高めつつも、主に2つのシナリオに焦点を当てている。
例えば、決定木のノードにおける情報ゲインを計算するなど、さまざまなサイトにわたって定義された基準を満たしたサンプル数をカウントする分析を行う場合である。
本稿では,既存の2党方式に基づく任意の人数の当事者に対するプロトコルの一般化を提案する。
提案するソリューションは,スカラー製品の再帰的解決に依存している。
提案手法を説明した後、潜在的なスケーラビリティの問題について議論する。
最後に,プライバシの保証について述べ,懸念事項を特定するとともに,提案手法を本手法のソリューションと比較する。
関連論文リスト
- Differentially private and decentralized randomized power method [15.955127242261808]
微分プライバシー(DP)を実現するために導入されたノイズの分散を低減するための戦略を提案する。
精度を保ちながら、計算と通信のオーバーヘッドが低い分散化フレームワークに適応する。
本研究では,集中型環境におけるノイズスケールを,集中型環境におけるノイズスケールと類似した分散化環境で使用することができることを示す。
論文 参考訳(メタデータ) (2024-11-04T09:53:03Z) - Fast Empirical Scenarios [0.0]
サンプルモーメントと整合した大規模パネルデータから代表シナリオを抽出する。
2つの新しいアルゴリズムのうち、最初に観測されていないシナリオを識別する。
第2の提案は、すでに実現した世界の状態から重要なデータポイントを選択する。
論文 参考訳(メタデータ) (2023-07-08T07:58:53Z) - SoK: Privacy-Preserving Data Synthesis [72.92263073534899]
本稿では,プライバシ保護データ合成(PPDS)に注目し,その分野の総合的な概要,分析,議論を行う。
PPDSでは,統計的手法と深層学習(DL)に基づく手法の2つの顕著な研究を統一するマスターレシピを作成した。
論文 参考訳(メタデータ) (2023-07-05T08:29:31Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - VertiBayes: Learning Bayesian network parameters from vertically partitioned data with missing values [2.9707233220536313]
フェデレーション学習は、分散データに基づいて機械学習モデルをトレーニングすることを可能にする。
本稿では,垂直分割データ上でベイズネットワークを学習するためのVertiBayesという新しい手法を提案する。
提案手法は,従来のアルゴリズムを用いて学習したモデルに匹敵するモデルを生成する。
論文 参考訳(メタデータ) (2022-10-31T11:13:35Z) - Differentially Private Estimation of Hawkes Process [81.20710494974281]
本稿では,Hawkesプロセスの離散化表現に基づいて,イベントストリームデータに対する微分プライバシーの厳密な定義を導入する。
次に、2つの微分プライベート最適化アルゴリズムを提案する。これにより、Hawkesプロセスモデルに望ましいプライバシとユーティリティの保証を持たせることができる。
論文 参考訳(メタデータ) (2022-09-15T13:59:23Z) - Differentially Private Vertical Federated Clustering [13.27934054846057]
多くのアプリケーションでは、複数のパーティが同じユーザのセットに関するプライベートデータを持っているが、非結合な属性のセットについてである。
データ対象者のプライバシーを保護しながらモデル学習を可能にするためには、垂直連合学習(VFL)技術が必要である。
本論文で提案するアルゴリズムは, 個人用垂直結合型K平均クラスタリングのための最初の実用的な解法である。
論文 参考訳(メタデータ) (2022-08-02T19:23:48Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Low-rank Dictionary Learning for Unsupervised Feature Selection [11.634317251468968]
低ランク表現に辞書学習のアイデアを適用することで、教師なしの新たな特徴選択手法を導入する。
非教師付き特徴選択のための統一目的関数は、$ell_2,1$-norm正規化によってスパースな方法で提案される。
実験の結果,提案手法は最先端のアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-21T13:39:10Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。