論文の概要: Privacy utility trade offs for parameter estimation in degree heterogeneous higher order networks
- arxiv url: http://arxiv.org/abs/2602.03948v1
- Date: Tue, 03 Feb 2026 19:11:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.241179
- Title: Privacy utility trade offs for parameter estimation in degree heterogeneous higher order networks
- Title(参考訳): 次数不均一高次ネットワークにおけるパラメータ推定のためのプライバシユーティリティトレードオフ
- Authors: Bibhabasu Mandal, Sagnik Nandy,
- Abstract要約: 関係データセットを含むセンシティブなアプリケーションでは、逆クエリから個々のリンクに関する情報を保護することが最重要となる。
我々は、この形式の集合関係情報に採用される原型統計モデルである$$モデルを採用する。
局所的および中心的差分プライバシー制約下での最小パラメータ推定の問題について検討する。
- 参考スコア(独自算出の注目度): 3.2665457005470504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In sensitive applications involving relational datasets, protecting information about individual links from adversarial queries is of paramount importance. In many such settings, the available data are summarized solely through the degrees of the nodes in the network. We adopt the $β$ model, which is the prototypical statistical model adopted for this form of aggregated relational information, and study the problem of minimax-optimal parameter estimation under both local and central differential privacy constraints. We establish finite sample minimax lower bounds that characterize the precise dependence of the estimation risk on the network size and the privacy parameters, and we propose simple estimators that achieve these bounds up to constants and logarithmic factors under both local and central differential privacy frameworks. Our results provide the first comprehensive finite sample characterization of privacy utility trade offs for parameter estimation in $β$ models, addressing the classical graph case and extending the analysis to higher order hypergraph models. We further demonstrate the effectiveness of our methods through experiments on synthetic data and a real world communication network.
- Abstract(参考訳): 関係データセットを含むセンシティブなアプリケーションでは、逆クエリから個々のリンクに関する情報を保護することが最重要となる。
このような設定の多くでは、利用可能なデータはネットワーク内のノードの度合いによってのみ要約される。
本稿では, 局所的および中央的差分プライバシー制約下での最小パラメータ推定の問題について検討する。
我々は,ネットワークサイズとプライバシパラメータに対する推定リスクの正確な依存性を特徴付ける有限サンプルミニマックス下限を定式化し,これらの境界を局所的および中央的差分プライバシーフレームワークの下で定数および対数的要因に設定する簡易な推定器を提案する。
この結果は,従来のグラフケースに対処し,高階ハイパーグラフモデルに解析を拡張した,$β$モデルにおけるパラメータ推定のためのプライバシユーティリティトレードオフの包括的有限サンプルとして初めて評価されたものである。
さらに,合成データと実世界通信ネットワークを用いた実験により,本手法の有効性を実証する。
関連論文リスト
- PRIVET: Privacy Metric Based on Extreme Value Theory [8.447463478355845]
深層生成モデルは、しばしば、遺伝配列、健康データ、より広範に、著作権、ライセンス、保護されたコンテンツなどの機密データに基づいて訓練される。
これにより、プライバシー保護のための合成データ、より具体的にはプライバシー漏洩に関する重要な懸念が持ち上がる。
本稿では,個別のプライバシリークスコアを合成サンプルに割り当てる,汎用的なサンプルベースモダリティ非依存アルゴリズムPRIVETを提案する。
論文 参考訳(メタデータ) (2025-10-28T09:42:03Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - A Privacy-Preserving Data Collection Method for Diversified Statistical Analysis [11.135689359531105]
本稿では, リアルタイム情報収集分野において, RVNS と呼ばれる新しい実値負のサーベイモデルを提案する。
RVNSモデルは、データを識別する必要性からユーザーを除外し、実際の機密情報から逸脱した範囲からデータ一式をサンプリングすることのみを要求する。
論文 参考訳(メタデータ) (2025-07-23T04:05:33Z) - Minimax And Adaptive Transfer Learning for Nonparametric Classification under Distributed Differential Privacy Constraints [6.042269506496206]
まず、プライバシ制約、ソースサンプル、ターゲットサンプルが分類精度に与える影響を正確に評価し、ミニマックスの誤分類率を確立する。
その結果、興味深い位相遷移現象が明らかとなり、プライバシーの保護と分類精度の達成との複雑なトレードオフが浮き彫りになった。
論文 参考訳(メタデータ) (2024-06-28T17:55:41Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Score Attack: A Lower Bound Technique for Optimal Differentially Private Learning [17.356324061159036]
本稿では,パラメータ推定の差分プライバシに制約されたミニマックスリスクを低く抑える,スコアアタックと呼ばれる新しい手法を提案する。
様々な統計問題に対する差分プライバシーを確保しながら、未知のモデルパラメータを推定する最小限のリスクを対数係数まで最適に下げることができる。
論文 参考訳(メタデータ) (2023-03-13T14:26:27Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。