論文の概要: Privacy-Preserving Image Classification in the Local Setting
- arxiv url: http://arxiv.org/abs/2002.03261v1
- Date: Sun, 9 Feb 2020 01:25:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:25:59.754820
- Title: Privacy-Preserving Image Classification in the Local Setting
- Title(参考訳): 地域設定におけるプライバシー保護画像分類
- Authors: Sen Wang, J.Morris Chang
- Abstract要約: ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
- 参考スコア(独自算出の注目度): 17.375582978294105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image data has been greatly produced by individuals and commercial vendors in
the daily life, and it has been used across various domains, like advertising,
medical and traffic analysis. Recently, image data also appears to be greatly
important in social utility, like emergency response. However, the privacy
concern becomes the biggest obstacle that prevents further exploration of image
data, due to that the image could reveal sensitive information, like the
personal identity and locations. The recent developed Local Differential
Privacy (LDP) brings us a promising solution, which allows the data owners to
randomly perturb their input to provide the plausible deniability of the data
before releasing. In this paper, we consider a two-party image classification
problem, in which data owners hold the image and the untrustworthy data user
would like to fit a machine learning model with these images as input. To
protect the image privacy, we propose to locally perturb the image
representation before revealing to the data user. Subsequently, we analyze how
the perturbation satisfies {\epsilon}-LDP and affect the data utility regarding
count-based and distance-based machine learning algorithm, and propose a
supervised image feature extractor, DCAConv, which produces an image
representation with scalable domain size. Our experiments show that DCAConv
could maintain a high data utility while preserving the privacy regarding
multiple image benchmark datasets.
- Abstract(参考訳): 画像データは、日常生活において個人や商業業者によって大きく生産され、広告、医療、交通分析など様々な分野で使用されてきた。
近年,緊急対応などの社会的有用性においても,画像データの重要性が高まっている。
しかし、プライバシーの懸念は、画像が個人情報や場所などの機密情報を明らかにする可能性があるため、画像データのさらなる探索を妨げる最大の障害となる。
最近開発されたローカル微分プライバシ(LDP)は、データ所有者がランダムに入力を摂動させ、リリース前にデータの妥当な識別性を提供する、有望なソリューションを提供する。
本稿では,データ所有者が画像を保持し,信頼できないデータを入力として機械学習モデルに適合させたい場合の2つの画像分類問題を考える。
画像のプライバシを保護するため,データユーザに公開する前に画像表現をローカルに摂動させることを提案する。
次に,摂動が<epsilon}-LDPを満足し,カウントベースおよび距離ベース機械学習アルゴリズムに関するデータの有用性に与える影響を分析し,拡張可能なドメインサイズで画像表現を生成する教師付き画像特徴抽出器DCAConvを提案する。
実験の結果,dcaconvは複数の画像ベンチマークデータセットに関するプライバシを維持しつつ,高データユーティリティを維持できることがわかった。
関連論文リスト
- Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Assessing the Impact of Image Dataset Features on Privacy-Preserving Machine Learning [1.3604778572442302]
本研究では,私的および非私的畳み込みニューラルネットワーク(CNN)モデルの有用性と脆弱性に影響を与える画像データセットの特徴を明らかにする。
不均衡なデータセットはマイノリティクラスでは脆弱性を増大させるが、DPはこの問題を緩和する。
論文 参考訳(メタデータ) (2024-09-02T15:30:27Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - Data privacy protection in microscopic image analysis for material data
mining [8.266759895003279]
本研究では,データプライバシ保護に基づく材料微細構造画像特徴抽出アルゴリズムであるFedTransferを提案する。
1) 多結晶微細構造画像分割タスクにフェデレート学習アルゴリズムを導入し,機械学習をフル活用し,データアイランドを壊し,ユーザデータのプライバシとセキュリティを確保する条件下でモデル一般化能力を向上させる。
ユーザの機密性に緊急でない画像のスタイル情報を共有することにより、異なるユーザのデータ分散の違いによるパフォーマンスペナルティを低減することができる。
論文 参考訳(メタデータ) (2021-11-09T11:16:33Z) - Personalized Image Semantic Segmentation [58.980245748434]
ラベルのないパーソナライズされた画像に対して、データのパーソナライズされた特徴を調査することにより、より正確なセグメンテーション結果を生成する。
画像のセグメント化時に画像間コンテキストを組み込んだベースライン手法を提案する。
コードとPSSデータセットは公開されます。
論文 参考訳(メタデータ) (2021-07-24T04:03:11Z) - Perceptual Indistinguishability-Net (PI-Net): Facial Image Obfuscation
with Manipulable Semantics [15.862524532287397]
特に画像に対する正式なプライバシー概念として、知覚的無区別性(PI)を提案します。
また,PI保証による画像難読化を実現するプライバシー保護機構であるPI-Netを提案する。
論文 参考訳(メタデータ) (2021-04-05T03:40:07Z) - Privacy-preserving Object Detection [52.77024349608834]
我々は,COCOにおけるオブジェクト検出において,顔のぼやけによるデータセットの匿名化と,性別や肌のトーン次元に沿ったバランスの取れた顔の交換は,プライバシを保ち,偏りを部分的に保ちながらオブジェクト検出性能を維持することができることを示した。
論文 参考訳(メタデータ) (2021-03-11T10:34:54Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。