論文の概要: Privacy Enhancement for Cloud-Based Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2205.07864v1
- Date: Tue, 10 May 2022 18:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 11:18:40.346307
- Title: Privacy Enhancement for Cloud-Based Few-Shot Learning
- Title(参考訳): クラウドベースのFew-Shot学習のためのプライバシ向上
- Authors: Archit Parnami, Muhammad Usama, Liyue Fan and Minwoo Lee
- Abstract要約: クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
- 参考スコア(独自算出の注目度): 4.1579007112499315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Requiring less data for accurate models, few-shot learning has shown
robustness and generality in many application domains. However, deploying
few-shot models in untrusted environments may inflict privacy concerns, e.g.,
attacks or adversaries that may breach the privacy of user-supplied data. This
paper studies the privacy enhancement for the few-shot learning in an untrusted
environment, e.g., the cloud, by establishing a novel privacy-preserved
embedding space that preserves the privacy of data and maintains the accuracy
of the model. We examine the impact of various image privacy methods such as
blurring, pixelization, Gaussian noise, and differentially private pixelization
(DP-Pix) on few-shot image classification and propose a method that learns
privacy-preserved representation through the joint loss. The empirical results
show how privacy-performance trade-off can be negotiated for privacy-enhanced
few-shot learning.
- Abstract(参考訳): 正確なモデルに必要なデータが少ないことは、多くのアプリケーションドメインにおいて堅牢性と汎用性を示している。
しかし、信頼できない環境に少数のショットモデルを展開すると、例えば攻撃や敵がユーザーのプライバシを侵害するなどのプライバシー上の懸念が生じる可能性がある。
本稿では、データのプライバシーを保護し、モデルの正確性を維持する新しいプライバシー保護型埋め込み空間を確立することにより、信頼できない環境、例えばクラウドにおける数ショット学習のプライバシー向上について検討する。
画像のぼやけや画素化,ガウスノイズ,および差分プライベートな画素化(DP-Pix)といった様々な画像プライバシ手法が,少数の画像分類に与える影響について検討し,共同損失によるプライバシー保護表現の学習方法を提案する。
経験的な結果から、プライバシパフォーマンスのトレードオフが、プライバシを強調する少数の学習のためにどのように交渉されるかが分かる。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Differentially Private Generation of Small Images [0.0]
プライバシとユーティリティのトレードオフを$epsilon$-$delta$差分プライバシーと開始スコアのパラメータを用いて数値的に測定する。
われわれの実験では、プライバシー予算の増大が生成画像の品質にはほとんど影響しない飽和トレーニング体制が明らかになった。
論文 参考訳(メタデータ) (2020-05-02T10:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。