論文の概要: PrIsing: Privacy-Preserving Peer Effect Estimation via Ising Model
- arxiv url: http://arxiv.org/abs/2401.16596v1
- Date: Mon, 29 Jan 2024 21:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:52:59.257743
- Title: PrIsing: Privacy-Preserving Peer Effect Estimation via Ising Model
- Title(参考訳): prising: isingモデルによるプライバシー保護ピア効果推定
- Authors: Abhinav Chakraborty, Anirban Chatterjee and Abhinandan Dalal
- Abstract要約: 我々は、個々のエージェントの結果のプライバシーを保護するために特別に設計された、新しい$(varepsilon,delta)$-differentially privateアルゴリズムを提案する。
提案アルゴリズムは,目的摂動手法を用いて,単一ネットワークを用いた自然パラメータの正確な推定を可能にする。
- 参考スコア(独自算出の注目度): 3.4308998211298314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Ising model, originally developed as a spin-glass model for ferromagnetic
elements, has gained popularity as a network-based model for capturing
dependencies in agents' outputs. Its increasing adoption in healthcare and the
social sciences has raised privacy concerns regarding the confidentiality of
agents' responses. In this paper, we present a novel
$(\varepsilon,\delta)$-differentially private algorithm specifically designed
to protect the privacy of individual agents' outcomes. Our algorithm allows for
precise estimation of the natural parameter using a single network through an
objective perturbation technique. Furthermore, we establish regret bounds for
this algorithm and assess its performance on synthetic datasets and two
real-world networks: one involving HIV status in a social network and the other
concerning the political leaning of online blogs.
- Abstract(参考訳): もともと強磁性素子のスピングラスモデルとして開発されたIsingモデルは、エージェントの出力の依存関係をキャプチャするネットワークベースモデルとして人気を集めている。
医療や社会科学における採用の増加は、エージェントの反応の機密性に関するプライバシー上の懸念を提起している。
本稿では,個々のエージェントの成果のプライバシを保護するために特別に設計された$(\varepsilon,\delta)$-differentially privateアルゴリズムを提案する。
提案アルゴリズムは,目的摂動手法を用いて,単一ネットワークを用いた自然パラメータの正確な推定を可能にする。
さらに、このアルゴリズムに対する後悔の限界を確立し、合成データセットと2つの現実世界のネットワークにおけるそのパフォーマンスを評価する。
関連論文リスト
- TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Differentially Private Decentralized Learning with Random Walks [15.862152253607496]
ランダムウォークアルゴリズムを用いて分散学習のプライバシー保証を特徴付ける。そこでは、あるノードから別のノードへ通信グラフのエッジに沿って移動することで、モデルを更新する。
その結果、ランダムウォークアルゴリズムは、互いに近接するノードに対するゴシップアルゴリズムよりも、より優れたプライバシ保証をもたらす傾向があることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-12T08:16:58Z) - Chained-DP: Can We Recycle Privacy Budget? [18.19895364709435]
本稿では,ユーザが順次データアグリゲーションを実行し,プライバシ予算を再利用することのできる,新しいChained-DPフレームワークを提案する。
逐次ゲームの数学的性質を示し、そのナッシュ平衡を解き、証明可能な経済特性を持つインセンティブメカニズムを設計する。
提案手法の有効性を数値シミュレーションにより検証し,従来のLPP機構と比較して,プライバシ予算の大幅な削減と推定誤差の低減を図った。
論文 参考訳(メタデータ) (2023-09-12T08:07:59Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - A Distributed Privacy-Preserving Learning Dynamics in General Social
Networks [22.195555664935814]
一般的なソーシャルネットワークにおける分散プライバシ保護学習問題について検討する。
本研究では,4段階の分散ソーシャル学習アルゴリズムを提案する。
アルゴリズムの性能に関する2つの基本的な質問に対する回答を提供する。
論文 参考訳(メタデータ) (2020-11-15T04:00:45Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。