論文の概要: Privacy Enhancement for Cloud-Based Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2205.07864v1
- Date: Tue, 10 May 2022 18:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 11:18:40.346307
- Title: Privacy Enhancement for Cloud-Based Few-Shot Learning
- Title(参考訳): クラウドベースのFew-Shot学習のためのプライバシ向上
- Authors: Archit Parnami, Muhammad Usama, Liyue Fan and Minwoo Lee
- Abstract要約: クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
- 参考スコア(独自算出の注目度): 4.1579007112499315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Requiring less data for accurate models, few-shot learning has shown
robustness and generality in many application domains. However, deploying
few-shot models in untrusted environments may inflict privacy concerns, e.g.,
attacks or adversaries that may breach the privacy of user-supplied data. This
paper studies the privacy enhancement for the few-shot learning in an untrusted
environment, e.g., the cloud, by establishing a novel privacy-preserved
embedding space that preserves the privacy of data and maintains the accuracy
of the model. We examine the impact of various image privacy methods such as
blurring, pixelization, Gaussian noise, and differentially private pixelization
(DP-Pix) on few-shot image classification and propose a method that learns
privacy-preserved representation through the joint loss. The empirical results
show how privacy-performance trade-off can be negotiated for privacy-enhanced
few-shot learning.
- Abstract(参考訳): 正確なモデルに必要なデータが少ないことは、多くのアプリケーションドメインにおいて堅牢性と汎用性を示している。
しかし、信頼できない環境に少数のショットモデルを展開すると、例えば攻撃や敵がユーザーのプライバシを侵害するなどのプライバシー上の懸念が生じる可能性がある。
本稿では、データのプライバシーを保護し、モデルの正確性を維持する新しいプライバシー保護型埋め込み空間を確立することにより、信頼できない環境、例えばクラウドにおける数ショット学習のプライバシー向上について検討する。
画像のぼやけや画素化,ガウスノイズ,および差分プライベートな画素化(DP-Pix)といった様々な画像プライバシ手法が,少数の画像分類に与える影響について検討し,共同損失によるプライバシー保護表現の学習方法を提案する。
経験的な結果から、プライバシパフォーマンスのトレードオフが、プライバシを強調する少数の学習のためにどのように交渉されるかが分かる。
関連論文リスト
- Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Learning Differentially Private Probabilistic Models for
Privacy-Preserving Image Generation [67.47979276739144]
差分プライバシー保証付き高解像度画像を生成するために,差分プライベート確率モデルの学習を提案する。
我々のアプローチは、目立った視覚的品質とデータユーティリティで256x256までの画像を生成することができる。
論文 参考訳(メタデータ) (2023-05-18T02:51:17Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Differentially Private Generation of Small Images [0.0]
プライバシとユーティリティのトレードオフを$epsilon$-$delta$差分プライバシーと開始スコアのパラメータを用いて数値的に測定する。
われわれの実験では、プライバシー予算の増大が生成画像の品質にはほとんど影響しない飽和トレーニング体制が明らかになった。
論文 参考訳(メタデータ) (2020-05-02T10:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。