論文の概要: N-Parties Private Structure and Parameter Learning for Sum-Product Networks
- arxiv url: http://arxiv.org/abs/2510.05946v1
- Date: Tue, 07 Oct 2025 13:55:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.27856
- Title: N-Parties Private Structure and Parameter Learning for Sum-Product Networks
- Title(参考訳): N-Parties Private Structure and Parameter Learning for Sum-Product Networks
- Authors: Xenia Heilmann, Ernst Althaus, Mattia Cerrato, Nick Johannes Peter Rassau, Mohammad Sadeq Dousti, Stefan Kramer,
- Abstract要約: 和積ネットワーク(英: sum-product network、SPN)は、複数の種類の確率的推論を効率的に行うことができるグラフィカルモデルである。
本研究ではSPNの構造生成とパラメータ学習に取り組むプライバシー保護プロトコルを提案する。
また、SPNのプライベート推論のためのプロトコルも提供します。
- 参考スコア(独自算出の注目度): 5.392108098556604
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A sum-product network (SPN) is a graphical model that allows several types of probabilistic inference to be performed efficiently. In this paper, we propose a privacy-preserving protocol which tackles structure generation and parameter learning of SPNs. Additionally, we provide a protocol for private inference on SPNs, subsequent to training. To preserve the privacy of the participants, we derive our protocol based on secret sharing, which guarantees privacy in the honest-but-curious setting even when at most half of the parties cooperate to disclose the data. The protocol makes use of a forest of randomly generated SPNs, which is trained and weighted privately and can then be used for private inference on data points. Our experiments indicate that preserving the privacy of all participants does not decrease log-likelihood performance on both homogeneously and heterogeneously partitioned data. We furthermore show that our protocol's performance is comparable to current state-of-the-art SPN learners in homogeneously partitioned data settings. In terms of runtime and memory usage, we demonstrate that our implementation scales well when increasing the number of parties, comparing favorably to protocols for neural networks, when they are trained to reproduce the input-output behavior of SPNs.
- Abstract(参考訳): 和積ネットワーク(英: sum-product network、SPN)は、複数の種類の確率的推論を効率的に行うことができるグラフィカルモデルである。
本稿では,SPNの構造生成とパラメータ学習に取り組むプライバシー保護プロトコルを提案する。
また,SPNのプライベート推論のためのプロトコルも提供する。
参加者のプライバシを維持するため、参加者の半数以上が協力してデータを開示しても、誠実だが正確な環境でのプライバシを保証する秘密の共有に基づいて、当社のプロトコルを導出する。
このプロトコルはランダムに生成されたSPNのフォレストを使用し、プライベートにトレーニングされ、重み付けされ、データポイントのプライベート推論に使用することができる。
実験の結果,全参加者のプライバシを保存することは,均質データと均質データの両方においてログライクな性能を低下させるものではないことがわかった。
さらに,本プロトコルの性能は,均一に分割されたデータ設定において,現在最先端のSPN学習者と同等であることを示す。
実行時およびメモリ使用量の観点から、SPNの入出力動作を再現するように訓練された場合、パーティ数を増やし、ニューラルネットワークのプロトコルと好意的に比較することで、実装が十分にスケールできることを実証する。
関連論文リスト
- Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Preserving Node-level Privacy in Graph Neural Networks [8.939810456787173]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - An Accurate, Scalable and Verifiable Protocol for Federated
Differentially Private Averaging [0.0]
我々は、参加者に提供されるプライバシー保証と、悪意ある当事者の存在下での計算の正しさに関する課題に取り組む。
最初のコントリビューションはスケーラブルなプロトコルで、参加者はネットワークグラフのエッジに沿って関連するガウスノイズを交換する。
第2のコントリビューションでは,プロトコルの効率性とプライバシ保証を損なうことなく,計算の正確性を証明することができる。
論文 参考訳(メタデータ) (2020-06-12T14:21:10Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。