論文の概要: Differential Privacy for Network Assortativity
- arxiv url: http://arxiv.org/abs/2505.03639v1
- Date: Tue, 06 May 2025 15:40:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.452411
- Title: Differential Privacy for Network Assortativity
- Title(参考訳): ネットワーク・アソータティビティのための微分プライバシー
- Authors: Fei Ma, Jinzhi Ouyang, Xincheng Hu,
- Abstract要約: ネットワーク・アソシティティの分析はネットワーク上の構造的特徴と動的特性を理解する上で非常に重要である。
ネットワークには、ソーシャルネットワーク内の個人の友人の数など、センシティブな情報が含まれていることはよく知られている。
本稿では、まず、差分プライバシー(DP)に基づくアプローチを提案する。具体的に、DPベースのアルゴリズムとして、$Local_ru$、$Shuffle_ru$、$Decentral_ru$の3つを設計する。
- 参考スコア(独自算出の注目度): 3.462869032423588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The analysis of network assortativity is of great importance for understanding the structural characteristics of and dynamics upon networks. Often, network assortativity is quantified using the assortativity coefficient that is defined based on the Pearson correlation coefficient between vertex degrees. It is well known that a network may contain sensitive information, such as the number of friends of an individual in a social network (which is abstracted as the degree of vertex.). So, the computation of the assortativity coefficient leads to privacy leakage, which increases the urgent need for privacy-preserving protocol. However, there has been no scheme addressing the concern above. To bridge this gap, in this work, we are the first to propose approaches based on differential privacy (DP for short). Specifically, we design three DP-based algorithms: $Local_{ru}$, $Shuffle_{ru}$, and $Decentral_{ru}$. The first two algorithms, based on Local DP (LDP) and Shuffle DP respectively, are designed for settings where each individual only knows his/her direct friends. In contrast, the third algorithm, based on Decentralized DP (DDP), targets scenarios where each individual has a broader view, i.e., also knowing his/her friends' friends. Theoretically, we prove that each algorithm enables an unbiased estimation of the assortativity coefficient of the network. We further evaluate the performance of the proposed algorithms using mean squared error (MSE), showing that $Shuffle_{ru}$ achieves the best performance, followed by $Decentral_{ru}$, with $Local_{ru}$ performing the worst. Note that these three algorithms have different assumptions, so each has its applicability scenario. Lastly, we conduct extensive numerical simulations, which demonstrate that the presented approaches are adequate to achieve the estimation of network assortativity under the demand for privacy protection.
- Abstract(参考訳): ネットワーク・アソシティティの分析はネットワーク上の構造的特徴と動的特性を理解する上で非常に重要である。
しばしば、頂点度間のピアソン相関係数に基づいて定義されるアスカニティ係数を用いて、ネットワークアスカニティを定量化する。
ネットワークには、ソーシャルネットワーク内の個人の友人の数(頂点の度合いとして抽象化される)など、センシティブな情報が含まれていることはよく知られている。
したがって、アソーサビリティ係数の計算は、プライバシの漏洩につながるため、プライバシ保護プロトコルの緊急ニーズが増大する。
しかし、上記の懸念に対処する計画はない。
このギャップを埋めるため、本稿では、差分プライバシー(DP)に基づくアプローチを初めて提案する。
具体的には、DPベースのアルゴリズムを3つ設計する:$Local_{ru}$, $Shuffle_{ru}$, $Decentral_{ru}$。
最初の2つのアルゴリズムは、それぞれローカルDP(LDP)とシャッフルDP(Shuffle DP)に基づいており、各個人が直接の友人しか知らない設定のために設計されている。
対照的に、第3のアルゴリズムは分散DP(DDP)に基づいており、各個人がより広い視点、すなわち友人の友人を知るシナリオをターゲットにしている。
理論的には,各アルゴリズムがネットワークの非偏り係数を推定できることを示す。
さらに,提案アルゴリズムの性能を平均二乗誤差 (MSE) を用いて評価した結果,$Shuffle_{ru}$が最高性能,$Decentral_{ru}$が最低性能,$Local_{ru}$が最低性能を示した。
これら3つのアルゴリズムは異なる仮定を持つので、それぞれが適用可能なシナリオを持っていることに注意してください。
最後に,プライバシ保護の要求条件下でのネットワーク・アソシティ性の推定に,提案手法が適していることを示すため,広範な数値シミュレーションを行う。
関連論文リスト
- Private Networked Federated Learning for Nonsmooth Objectives [7.278228169713637]
本稿では,非平滑な目的関数を解くためのネットワーク型フェデレーション学習アルゴリズムを提案する。
参加者の秘密性を保証するため、ゼロ集中型微分プライバシー概念(zCDP)を用いる。
プライバシ保証とアルゴリズムの正確な解への収束の完全な理論的証明を提供する。
論文 参考訳(メタデータ) (2023-06-24T16:13:28Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Distributed Online Private Learning of Convex Nondecomposable Objectives [7.5585719185840485]
我々は、時間によって異なるネットワーク上でのプライバシーに関する一般的な分散制約付きオンライン学習問題に対処する。
本稿では, DPSDA-C と DPSDA-PS という2つのアルゴリズムを提案する。
理論的結果は、目的関数が凸であるときに、両方のアルゴリズムが $mathcalO( sqrtT )$ で期待される後悔の上限に達することを示している。
論文 参考訳(メタデータ) (2022-06-16T06:29:51Z) - Differentially Private Federated Learning via Inexact ADMM with Multiple
Local Updates [0.0]
我々は,複数の局所的な更新を施した乗算器アルゴリズムのDP不正確な交互方向法を開発した。
当社のアルゴリズムでは,各イテレーション毎に$barepsilon$-DPを提供しており,$barepsilon$はユーザが管理するプライバシ予算である。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも31%削減すると同時に,データプライバシのレベルが同じであることを実証する。
論文 参考訳(メタデータ) (2022-02-18T19:58:47Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Differentially Private Federated Learning via Inexact ADMM [0.0]
差分プライバシー(DP)技術は、データプライバシを推論攻撃から保護するために、フェデレーション付き学習モデルに適用することができる。
我々は,信頼領域のサブプロブレム列を解く乗算器アルゴリズムのDP不正確な交互方向法を開発した。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも22%削減すると同時に,データプライバシのレベルも同等に向上する。
論文 参考訳(メタデータ) (2021-06-11T02:28:07Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。