論文の概要: Differentially Private Supervised Manifold Learning with Applications
like Private Image Retrieval
- arxiv url: http://arxiv.org/abs/2102.10802v1
- Date: Mon, 22 Feb 2021 06:58:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:06:53.789423
- Title: Differentially Private Supervised Manifold Learning with Applications
like Private Image Retrieval
- Title(参考訳): Private Image Retrievalのようなアプリケーションによる個人監督型マニフォールド学習
- Authors: Praneeth Vepakomma, Julia Balla, Ramesh Raskar
- Abstract要約: 教師付き多様体学習のための微分プライベートな textitPrivateMail を提案する。
我々は,提案手法の計算効率と実用性に加えて,広範なプライバシ利用トレードオフ結果を示す。
- 参考スコア(独自算出の注目度): 14.93584434176082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential Privacy offers strong guarantees such as immutable privacy under
post processing. Thus it is often looked to as a solution to learning on
scattered and isolated data. This work focuses on supervised manifold learning,
a paradigm that can generate fine-tuned manifolds for a target use case. Our
contributions are two fold. 1) We present a novel differentially private method
\textit{PrivateMail} for supervised manifold learning, the first of its kind to
our knowledge. 2) We provide a novel private geometric embedding scheme for our
experimental use case. We experiment on private "content based image retrieval"
- embedding and querying the nearest neighbors of images in a private manner -
and show extensive privacy-utility tradeoff results, as well as the
computational efficiency and practicality of our methods.
- Abstract(参考訳): 差分プライバシーは、ポスト処理下で不変のプライバシーなどの強力な保証を提供する。
したがって、散在した孤立したデータから学ぶための解決策としてよく見なされる。
この研究は、ターゲットユースケースのための微調整マニホールドを生成することができるパラダイムである、教師付きマニホールド学習に焦点を当てている。
私たちの貢献は2つある。
1) 教師付きマニホールド学習のための新しい微分プライベートメソッドである \textit{PrivateMail} を我々の知識に提示する。
2) 実験用として, 新規なプライベートな幾何学的埋め込み方式を提案する。
プライベートな「コンテンツベースの画像検索」 - 画像の近傍をプライベートな方法で埋め込み、クエリし、広範なプライバシーとユーティリティのトレードオフ結果だけでなく、私たちの方法の計算効率と実用性を示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Considerations on the Theory of Training Models with Differential
Privacy [13.782477759025344]
連合学習における協調学習は、各クライアントがそれぞれのローカルトレーニングデータの使用方法をコントロールしたいという一連のクライアントによって行われる。
差分プライバシーは、プライバシー漏洩を制限する方法の1つである。
論文 参考訳(メタデータ) (2023-03-08T15:56:27Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Differentially Private Generation of Small Images [0.0]
プライバシとユーティリティのトレードオフを$epsilon$-$delta$差分プライバシーと開始スコアのパラメータを用いて数値的に測定する。
われわれの実験では、プライバシー予算の増大が生成画像の品質にはほとんど影響しない飽和トレーニング体制が明らかになった。
論文 参考訳(メタデータ) (2020-05-02T10:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。