論文の概要: Local Pan-Privacy for Federated Analytics
- arxiv url: http://arxiv.org/abs/2503.11850v1
- Date: Fri, 14 Mar 2025 20:18:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:59:55.103378
- Title: Local Pan-Privacy for Federated Analytics
- Title(参考訳): フェデレート分析のためのローカルパンプロビティ
- Authors: Vitaly Feldman, Audra McMillan, Guy N. Rothblum, Kunal Talwar,
- Abstract要約: 我々は、地方国家に対する未発表の侵入を繰り返してプライバシーを保持すべき地域の汎民権について研究する。
合理的な制約の下では、侵入下での情報理論上の差分プライバシーを提供することはテレメトリ情報の収集と相容れないことを示す。
- 参考スコア(独自算出の注目度): 40.11101461628375
- License:
- Abstract: Pan-privacy was proposed by Dwork et al. as an approach to designing a private analytics system that retains its privacy properties in the face of intrusions that expose the system's internal state. Motivated by federated telemetry applications, we study local pan-privacy, where privacy should be retained under repeated unannounced intrusions on the local state. We consider the problem of monitoring the count of an event in a federated system, where event occurrences on a local device should be hidden even from an intruder on that device. We show that under reasonable constraints, the goal of providing information-theoretic differential privacy under intrusion is incompatible with collecting telemetry information. We then show that this problem can be solved in a scalable way using standard cryptographic primitives.
- Abstract(参考訳): パンプライバシーは、Dworkらによって、システムの内部状態を公開する侵入に直面して、プライバシ特性を保持するプライベート分析システムを設計するためのアプローチとして提案された。
フェデレーション・テレメトリ・アプリケーションによって動機付けられ、我々は現地のパン・プライバシーについて調査し、そこでは、未発表の現地への侵入を繰り返してプライバシーを保持すべきである。
我々は,そのデバイス上の侵入者からでも,ローカルデバイス上で発生した事象を隠蔽するフェデレーションシステムにおける事象数監視の問題を考える。
合理的な制約の下では、侵入下での情報理論上の差分プライバシーを提供することはテレメトリ情報の収集と相容れないことを示す。
次に、標準的な暗号プリミティブを用いて、スケーラブルな方法でこの問題を解決できることを示す。
関連論文リスト
- Inference Privacy: Properties and Mechanisms [8.471466670802817]
推論プライバシ(IP)は、推論時にユーザのデータに対して厳格なプライバシ保証を提供しながら、モデルと対話することを可能にする。
本稿では,ユーザがカスタマイズ可能な入力摂動と出力摂動という,IPを実現するための2つのメカニズムを提案する。
論文 参考訳(メタデータ) (2024-11-27T20:47:28Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.11846784025521]
PrivacyRestoreは、推論中のユーザの入力のプライバシを保護するためのプラグイン・アンド・プレイ方式である。
プライバシストアの有効性を評価するために、医療ドメインと法律ドメインをカバーする3つのデータセットを作成します。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - Indoor Location Fingerprinting Privacy: A Comprehensive Survey [0.09831489366502298]
屋内測位システム(IPS)の広汎な統合は、位置情報サービス(LBS)の普及に繋がる。
屋内位置指紋認証は、ユーザデバイスから多様な信号指紋を使用し、ロケーションサービスプロバイダ(LSP)による正確な位置識別を可能にする
様々なドメインにまたがる幅広い応用にもかかわらず、屋内位置フィンガープリントは、LSPと潜在的な敵の両方が本質的にこの機密情報にアクセスでき、ユーザーのプライバシーを損なうため、顕著なプライバシーリスクをもたらす。
論文 参考訳(メタデータ) (2024-04-10T21:02:58Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Node Injection Link Stealing Attack [0.649970685896541]
グラフ構造化データ内のプライベートリンクを推測することにより、グラフニューラルネットワーク(GNN)のプライバシ脆弱性を露呈する、ステルスで効果的な攻撃を提案する。
我々の研究は、GNNに固有のプライバシの脆弱性を強調し、アプリケーションの堅牢なプライバシ保護メカニズムを開発することの重要性を強調しています。
論文 参考訳(メタデータ) (2023-07-25T14:51:01Z) - Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model [21.077469463027306]
協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
論文 参考訳(メタデータ) (2023-04-11T21:48:42Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。