論文の概要: Local Graph-homomorphic Processing for Privatized Distributed Systems
- arxiv url: http://arxiv.org/abs/2210.15414v1
- Date: Wed, 26 Oct 2022 10:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 16:17:56.191777
- Title: Local Graph-homomorphic Processing for Privatized Distributed Systems
- Title(参考訳): 原始分散システムの局所グラフ同型処理
- Authors: Elsa Rizk, Stefan Vlaski, Ali H. Sayed
- Abstract要約: 付加雑音は学習モデルの性能に影響を与えないことを示す。
これは、分散アルゴリズムの差分プライバシーに関する以前の研究に対して、大きな改善である。
- 参考スコア(独自算出の注目度): 57.14673504239551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the generation of dependent random numbers in a distributed fashion
in order to enable privatized distributed learning by networked agents. We
propose a method that we refer to as local graph-homomorphic processing; it
relies on the construction of particular noises over the edges to ensure a
certain level of differential privacy. We show that the added noise does not
affect the performance of the learned model. This is a significant improvement
to previous works on differential privacy for distributed algorithms, where the
noise was added in a less structured manner without respecting the graph
topology and has often led to performance deterioration. We illustrate the
theoretical results by considering a linear regression problem over a network
of agents.
- Abstract(参考訳): ネットワークエージェントによる民営化された分散学習を実現するために,分散方式による依存乱数の生成について検討する。
本稿では,局所グラフ同型処理と呼ぶ手法を提案する。特定のノイズをエッジ上に構築することで,特定のレベルの差分プライバシーを確保する。
付加雑音は学習モデルの性能に影響を与えないことを示す。
これは、分散アルゴリズムの差分プライバシに関する以前の研究に対する大きな改善であり、ノイズはグラフトポロジーを尊重せずに構造化されていない方法で追加され、しばしばパフォーマンスが低下した。
本稿では,エージェントネットワーク上の線形回帰問題を考慮し,理論的結果を示す。
関連論文リスト
- MixupExplainer: Generalizing Explanations for Graph Neural Networks with
Data Augmentation [6.307753856507624]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
我々は,既存手法における分布シフト問題の存在に光を当て,説明の質に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-15T15:46:38Z) - Learning Curves for Noisy Heterogeneous Feature-Subsampled Ridge
Ensembles [34.32021888691789]
雑音の多い最小二乗尾根アンサンブルにおける特徴バッグングの理論を開発する。
サブサンプリングは線形予測器の2Dピークをシフトすることを示した。
特徴サブサンプリングアンサンブルの性能を1つの線形予測器と比較する。
論文 参考訳(メタデータ) (2023-07-06T17:56:06Z) - Strategic Distribution Shift of Interacting Agents via Coupled Gradient
Flows [6.064702468344376]
実世界のシステムにおける分散シフトのダイナミクスを解析するための新しいフレームワークを提案する。
より単純なモデルでは捉えられない偏極や異なる影響といった、よく文書化された形態の分布シフトを捉える手法を示す。
論文 参考訳(メタデータ) (2023-07-03T17:18:50Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Enforcing Privacy in Distributed Learning with Performance Guarantees [57.14673504239551]
分散学習と最適化戦略の民営化について検討する。
グラフ構造に対して十分に調整されていないため, 一般的な加法的乱乱摂動方式は性能を低下させることを示す。
論文 参考訳(メタデータ) (2023-01-16T13:03:27Z) - DiGress: Discrete Denoising diffusion for graph generation [79.13904438217592]
DiGressは、分類ノードとエッジ属性を持つグラフを生成するための離散化拡散モデルである。
分子と非分子のデータセットで最先端のパフォーマンスを実現し、最大3倍の妥当性が向上する。
また、1.3Mの薬物様分子を含む大規模なGuacaMolデータセットにスケールする最初のモデルでもある。
論文 参考訳(メタデータ) (2022-09-29T12:55:03Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Learning Node Representations from Noisy Graph Structures [38.32421350245066]
現実のネットワークではノイズが広まっており、ネットワークを危険にさらしている。
本研究では,ノイズのないノード表現を学習し,同時にノイズを除去する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-04T07:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。