論文の概要: Generative Adversarial User Privacy in Lossy Single-Server Information
Retrieval
- arxiv url: http://arxiv.org/abs/2012.03902v1
- Date: Mon, 7 Dec 2020 18:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 08:55:00.070835
- Title: Generative Adversarial User Privacy in Lossy Single-Server Information
Retrieval
- Title(参考訳): ロスシー単一サーバ情報検索におけるユーザプライバシ生成
- Authors: Chung-Wei Weng, Yauhen Yakimenka, Hsuan-Yin Lin, Eirik Rosnes, Joerg
Kliewer
- Abstract要約: 本稿では,ユーザゆがみとユーザのプライバシー制約の両方の下で,単一のサーバに格納されたファイルのデータセットからの情報検索の問題を考える。
具体的には、データセットからファイルを要求するユーザは、所定の歪みで要求されたファイルを再構築することができる。
さらに、要求されたファイルのIDは、所定のプライバシーレベルでサーバからプライベートにしておく必要がある。
- 参考スコア(独自算出の注目度): 18.274573259364026
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We consider the problem of information retrieval from a dataset of files
stored on a single server under both a user distortion and a user privacy
constraint. Specifically, a user requesting a file from the dataset should be
able to reconstruct the requested file with a prescribed distortion, and in
addition, the identity of the requested file should be kept private from the
server with a prescribed privacy level. The proposed model can be seen as an
extension of the well-known concept of private information retrieval by
allowing for distortion in the retrieval process and relaxing the perfect
privacy requirement. We initiate the study of the tradeoff between download
rate, distortion, and user privacy leakage, and show that the optimal
rate-distortion-leakage tradeoff is convex and that in the limit of large file
sizes this allows for a concise information-theoretical formulation in terms of
mutual information. Moreover, we propose a new data-driven framework by
leveraging recent advancements in generative adversarial models which allows a
user to learn efficient schemes in terms of download rate from the data itself.
Learning the scheme is formulated as a constrained minimax game between a user
which desires to keep the identity of the requested file private and an
adversary that tries to infer which file the user is interested in under a
distortion constraint. In general, guaranteeing a certain privacy level leads
to a higher rate-distortion tradeoff curve, and hence a sacrifice in either
download rate or distortion. We evaluate the performance of the scheme on a
synthetic Gaussian dataset as well as on the MNIST and CIFAR-$10$ datasets. For
the MNIST dataset, the data-driven approach significantly outperforms a
proposed general achievable scheme combining source coding with the download of
multiple files, while for CIFAR-$10$ the performances are comparable.
- Abstract(参考訳): 本稿では,ユーザゆがみとユーザのプライバシー制約の両方の下で,単一のサーバに格納されたファイルのデータセットからの情報検索の問題を考える。
具体的には、データセットからファイルを要求するユーザは、所定の歪みで要求されたファイルを再構築することができ、さらに、要求されたファイルの同一性を所定のプライバシーレベルでサーバからプライベートにしておく必要がある。
提案モデルは,検索過程の歪みを許容し,完全なプライバシー要件を緩和することにより,情報検索の周知概念の拡張と見なすことができる。
ダウンロード率,歪み,ユーザプライバシリークのトレードオフについて検討し,最適なレート・歪み・遅延トレードオフが凸であり,ファイルサイズが大きければ,相互情報の観点から簡潔な情報理論の定式化が可能になることを示す。
さらに,新しいデータ駆動型フレームワークを提案する。データ自体からのダウンロード率という観点で,ユーザが効率的なスキームを学習できるジェネレーティブ・アドバーサリーモデルの最近の進歩を活用している。
このスキームの学習は、要求されたファイルのアイデンティティをプライベートに保つことを希望するユーザと、歪んだ制約の下でユーザが興味を持つファイルを推測しようとする敵との間の制約付きミニマックスゲームとして定式化されている。
一般的に、特定のプライバシレベルの保証は、高いレート歪みのトレードオフ曲線につながるため、ダウンロード率または歪みの犠牲になる。
我々は、合成ガウスデータセットおよびmnistおよびcifar-$10$データセットにおけるスキームの性能を評価する。
MNISTデータセットでは、データ駆動型アプローチは、ソースコードと複数のファイルのダウンロードを組み合わせた一般的な達成可能なスキームを著しく上回り、CIFAR-$10$のパフォーマンスは同等である。
関連論文リスト
- Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Privacy-Aware Compression for Federated Data Analysis [31.970815289473965]
フェデレーションデータ分析(Federated Data Analytics)は、サーバが低帯域のユーザデバイス群からノイズの多い応答をコンパイルし、集計統計を推定する分散データ分析フレームワークである。
このフレームワークの2つの大きな課題は、ユーザデータがしばしばセンシティブであり、ユーザデバイスがネットワーク帯域幅が低いため、圧縮である。
我々は、この問題を概観し、特定の通信予算で機能するプライバシーに配慮した圧縮メカニズムのファミリーを設計する。
論文 参考訳(メタデータ) (2022-03-15T17:57:13Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Generating private data with user customization [9.415164800448853]
モバイルデバイスは大量のデータを生成、保存し、機械学習モデルを強化することができる。
しかし、このデータには、データのリリースを防止するデータ所有者特有のプライベート情報が含まれている可能性がある。
有用な情報を保持しつつ、ユーザ固有のプライベート情報とデータとの相関を小さくしたい。
論文 参考訳(メタデータ) (2020-12-02T19:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。