論文の概要: Generative Adversarial User Privacy in Lossy Single-Server Information
Retrieval
- arxiv url: http://arxiv.org/abs/2012.03902v1
- Date: Mon, 7 Dec 2020 18:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 08:55:00.070835
- Title: Generative Adversarial User Privacy in Lossy Single-Server Information
Retrieval
- Title(参考訳): ロスシー単一サーバ情報検索におけるユーザプライバシ生成
- Authors: Chung-Wei Weng, Yauhen Yakimenka, Hsuan-Yin Lin, Eirik Rosnes, Joerg
Kliewer
- Abstract要約: 本稿では,ユーザゆがみとユーザのプライバシー制約の両方の下で,単一のサーバに格納されたファイルのデータセットからの情報検索の問題を考える。
具体的には、データセットからファイルを要求するユーザは、所定の歪みで要求されたファイルを再構築することができる。
さらに、要求されたファイルのIDは、所定のプライバシーレベルでサーバからプライベートにしておく必要がある。
- 参考スコア(独自算出の注目度): 18.274573259364026
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We consider the problem of information retrieval from a dataset of files
stored on a single server under both a user distortion and a user privacy
constraint. Specifically, a user requesting a file from the dataset should be
able to reconstruct the requested file with a prescribed distortion, and in
addition, the identity of the requested file should be kept private from the
server with a prescribed privacy level. The proposed model can be seen as an
extension of the well-known concept of private information retrieval by
allowing for distortion in the retrieval process and relaxing the perfect
privacy requirement. We initiate the study of the tradeoff between download
rate, distortion, and user privacy leakage, and show that the optimal
rate-distortion-leakage tradeoff is convex and that in the limit of large file
sizes this allows for a concise information-theoretical formulation in terms of
mutual information. Moreover, we propose a new data-driven framework by
leveraging recent advancements in generative adversarial models which allows a
user to learn efficient schemes in terms of download rate from the data itself.
Learning the scheme is formulated as a constrained minimax game between a user
which desires to keep the identity of the requested file private and an
adversary that tries to infer which file the user is interested in under a
distortion constraint. In general, guaranteeing a certain privacy level leads
to a higher rate-distortion tradeoff curve, and hence a sacrifice in either
download rate or distortion. We evaluate the performance of the scheme on a
synthetic Gaussian dataset as well as on the MNIST and CIFAR-$10$ datasets. For
the MNIST dataset, the data-driven approach significantly outperforms a
proposed general achievable scheme combining source coding with the download of
multiple files, while for CIFAR-$10$ the performances are comparable.
- Abstract(参考訳): 本稿では,ユーザゆがみとユーザのプライバシー制約の両方の下で,単一のサーバに格納されたファイルのデータセットからの情報検索の問題を考える。
具体的には、データセットからファイルを要求するユーザは、所定の歪みで要求されたファイルを再構築することができ、さらに、要求されたファイルの同一性を所定のプライバシーレベルでサーバからプライベートにしておく必要がある。
提案モデルは,検索過程の歪みを許容し,完全なプライバシー要件を緩和することにより,情報検索の周知概念の拡張と見なすことができる。
ダウンロード率,歪み,ユーザプライバシリークのトレードオフについて検討し,最適なレート・歪み・遅延トレードオフが凸であり,ファイルサイズが大きければ,相互情報の観点から簡潔な情報理論の定式化が可能になることを示す。
さらに,新しいデータ駆動型フレームワークを提案する。データ自体からのダウンロード率という観点で,ユーザが効率的なスキームを学習できるジェネレーティブ・アドバーサリーモデルの最近の進歩を活用している。
このスキームの学習は、要求されたファイルのアイデンティティをプライベートに保つことを希望するユーザと、歪んだ制約の下でユーザが興味を持つファイルを推測しようとする敵との間の制約付きミニマックスゲームとして定式化されている。
一般的に、特定のプライバシレベルの保証は、高いレート歪みのトレードオフ曲線につながるため、ダウンロード率または歪みの犠牲になる。
我々は、合成ガウスデータセットおよびmnistおよびcifar-$10$データセットにおけるスキームの性能を評価する。
MNISTデータセットでは、データ駆動型アプローチは、ソースコードと複数のファイルのダウンロードを組み合わせた一般的な達成可能なスキームを著しく上回り、CIFAR-$10$のパフォーマンスは同等である。
関連論文リスト
- Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Privacy-Aware Compression for Federated Data Analysis [31.970815289473965]
フェデレーションデータ分析(Federated Data Analytics)は、サーバが低帯域のユーザデバイス群からノイズの多い応答をコンパイルし、集計統計を推定する分散データ分析フレームワークである。
このフレームワークの2つの大きな課題は、ユーザデータがしばしばセンシティブであり、ユーザデバイスがネットワーク帯域幅が低いため、圧縮である。
我々は、この問題を概観し、特定の通信予算で機能するプライバシーに配慮した圧縮メカニズムのファミリーを設計する。
論文 参考訳(メタデータ) (2022-03-15T17:57:13Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Generating private data with user customization [9.415164800448853]
モバイルデバイスは大量のデータを生成、保存し、機械学習モデルを強化することができる。
しかし、このデータには、データのリリースを防止するデータ所有者特有のプライベート情報が含まれている可能性がある。
有用な情報を保持しつつ、ユーザ固有のプライベート情報とデータとの相関を小さくしたい。
論文 参考訳(メタデータ) (2020-12-02T19:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。