論文の概要: Differential Privacy for Network Connectedness Indices
- arxiv url: http://arxiv.org/abs/2603.15609v1
- Date: Mon, 16 Mar 2026 17:57:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.721722
- Title: Differential Privacy for Network Connectedness Indices
- Title(参考訳): ネットワーク接続性指標の微分プライバシー
- Authors: Tom A. Rutter, Yuxin Liu, M. Amin Rahimian,
- Abstract要約: エッジに隣接した差分プライバシーの下で、ノード属性をまたいだ代替的な混合を定量化するネットワーク接続性指標の公開方法を示す。
我々は,社会科学者が収集した200個のノードのシミュレーションにおいて,本手法が有効であることを示す。
- 参考スコア(独自算出の注目度): 1.7415937218905126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researchers increasingly use data on social and economic networks to study a range of social science questions, but releasing statistics derived from networks can raise significant privacy concerns. We show how to release network connectedness indices that quantify assortative mixing across node attributes under edge-adjacent differential privacy. Standard privacy techniques perform poorly in this setting both because connectedness indices have high global sensitivity and because a single node's attribute can potentially be an input to connectedness in thousands of cells, leading to poor composition. Our method, which is straightforward to apply, first adds noise to node attributes, then analytically debiases downstream statistics, and finally applies a second layer of noise to protect the presence or absence of individual edges. We prove consistency and asymptotic normality of our estimators for both discrete and continuous labels and show our method works well in simulations and on real networks with as few as 200 nodes collected by social scientists.
- Abstract(参考訳): 研究者たちは、ソーシャルメディアや経済ネットワークのデータを使って、さまざまな社会科学の質問を研究している。
エッジに隣接した差分プライバシーの下で、ノード属性をまたいだ代替的な混合を定量化するネットワーク接続性指標の公開方法を示す。
この設定では、接続性指標がグローバルな感度が高いことと、単一ノードの属性が数千のセルの接続性への入力になり得るため、標準プライバシ技術は性能が劣る。
提案手法は,まずノード属性にノイズを付加し,次に下流の統計データを解析的に除去し,最後に個々のエッジの存在や不在を保護するために第2のノイズ層を適用した。
離散ラベルと連続ラベルの両方に対する推定器の一貫性と漸近正規性を証明するとともに,社会科学者が収集した200ノードのシミュレーションや実ネットワーク上での手法の有効性を示す。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - GRAND: Graph Release with Assured Node Differential Privacy [3.7346004746366384]
我々は,ノードレベルの差分プライバシーと構造的特性の確保を確保しつつ,ネットワーク全体を解放する最初のネットワークリリース機構であるGRANDを提案する。
このアプローチの有効性は、合成データセットと実世界のデータセットの両方に関する広範な実験を通じて評価される。
論文 参考訳(メタデータ) (2025-07-01T03:39:08Z) - Efficient and Privacy-Preserved Link Prediction via Condensed Graphs [49.898152180805454]
本稿では,HyDROtextsuperscript+について紹介する。
提案手法は,従来のネットワーク上でのリンク予測と比較して,約20*高速なトレーニングを実現し,ストレージ要求を452*削減する。
論文 参考訳(メタデータ) (2025-03-15T14:54:04Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Node-Level Differentially Private Graph Neural Networks [14.917945355629563]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをモデル化するための一般的な手法である。
この研究は、ノードレベルのプライバシで1層GNNを学習する問題を正式に定義する。
強力な差分プライバシー保証を備えたアルゴリズムによるソリューションを提供する。
論文 参考訳(メタデータ) (2021-11-23T16:18:53Z) - Unveiling Anomalous Edges and Nominal Connectivity of Attributed
Networks [53.56901624204265]
本研究では、相補的な強さを持つ2つの異なる定式化を用いて、属性グラフの異常なエッジを明らかにする。
まず、グラフデータマトリックスを低ランクとスパースコンポーネントに分解することで、パフォーマンスを著しく向上させる。
第2は、乱れのないグラフを頑健に復元することにより、第1のスコープを広げ、異常識別性能を高める。
論文 参考訳(メタデータ) (2021-04-17T20:00:40Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。