論文の概要: You Can Use But Cannot Recognize: Preserving Visual Privacy in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2404.04098v1
- Date: Fri, 5 Apr 2024 13:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 16:05:12.538404
- Title: You Can Use But Cannot Recognize: Preserving Visual Privacy in Deep Neural Networks
- Title(参考訳): 深層ニューラルネットワークにおける視覚的プライバシの保護
- Authors: Qiushi Li, Yan Zhang, Ju Ren, Qi Li, Yaoxue Zhang,
- Abstract要約: 既存のプライバシー保護技術では、そのようなデータを効率的に保護することはできない。
プライバシー保護のための新しいフレームワーク VisualMixer を提案する。
VisualMixerは、ノイズを注入することなく、空間領域と色チャネル空間のピクセルをシャッフルする。
実世界のデータセットの実験では、VisualMixerは無視できる精度の損失で視覚的プライバシを効果的に保存できることを示した。
- 参考スコア(独自算出の注目度): 29.03438707988713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image data have been extensively used in Deep Neural Network (DNN) tasks in various scenarios, e.g., autonomous driving and medical image analysis, which incurs significant privacy concerns. Existing privacy protection techniques are unable to efficiently protect such data. For example, Differential Privacy (DP) that is an emerging technique protects data with strong privacy guarantee cannot effectively protect visual features of exposed image dataset. In this paper, we propose a novel privacy-preserving framework VisualMixer that protects the training data of visual DNN tasks by pixel shuffling, while not injecting any noises. VisualMixer utilizes a new privacy metric called Visual Feature Entropy (VFE) to effectively quantify the visual features of an image from both biological and machine vision aspects. In VisualMixer, we devise a task-agnostic image obfuscation method to protect the visual privacy of data for DNN training and inference. For each image, it determines regions for pixel shuffling in the image and the sizes of these regions according to the desired VFE. It shuffles pixels both in the spatial domain and in the chromatic channel space in the regions without injecting noises so that it can prevent visual features from being discerned and recognized, while incurring negligible accuracy loss. Extensive experiments on real-world datasets demonstrate that VisualMixer can effectively preserve the visual privacy with negligible accuracy loss, i.e., at average 2.35 percentage points of model accuracy loss, and almost no performance degradation on model training.
- Abstract(参考訳): 画像データは、例えば自律運転や医療画像分析など、さまざまなシナリオにおけるDeep Neural Network(DNN)タスクで広く使用されている。
既存のプライバシー保護技術では、そのようなデータを効率的に保護することはできない。
例えば、新たな技術である差分プライバシー(DP)は、強力なプライバシー保証を持つデータを保護するが、露出した画像データセットの視覚的特徴を効果的に保護することはできない。
本稿では,画素シャッフルにより視覚的DNNタスクのトレーニングデータを保護し,ノイズを注入することなく,新たなプライバシー保護フレームワークであるVisualMixerを提案する。
VisualMixerは、Visual Feature Entropy(VFE)と呼ばれる新しいプライバシーメトリクスを使用して、生物学的およびマシンビジョンの両面から画像の視覚的特徴を効果的に定量化する。
VisualMixer では,DNN トレーニングと推論のための視覚的プライバシを保護するために,タスクに依存しない画像難読化手法を考案した。
各画像について、所望のVFEに応じて、画像中のピクセルシャッフルの領域と、これらの領域のサイズを決定する。
ノイズを注入することなく、領域内の空間領域と色チャネル空間の両方で画素をシャッフルし、視覚的特徴の認識や認識を防止しつつ、無視できる精度の損失を招く。
実世界のデータセットに対する大規模な実験により、VisualMixerは無視できる精度の損失、すなわち平均2.35ポイントのモデル精度の損失で視覚的プライバシを効果的に維持できることを示した。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Region of Interest Loss for Anonymizing Learned Image Compression [3.0936354370614607]
人間の顔が認識不能になり,人体が検出不能となるような,十分な匿名化を実現する方法を示す。
このアプローチは、ネットワーク越しに機密性の高い匿名化データを送信するのではなく、キャプチャデバイス上の1ステップで圧縮と匿名化を可能にする。
論文 参考訳(メタデータ) (2024-06-09T10:36:06Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Privacy-Preserving Feature Coding for Machines [32.057586389777185]
自動化されたマシンビジョンパイプラインは、タスクを実行するために正確なビジュアルコンテンツを必要としない。
本稿では,画像のプライバシを保存する潜在表現を作成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-03T06:13:43Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Unintended memorisation of unique features in neural networks [15.174895411434026]
トレーニングデータに1回だけ発生するユニークな特徴は、識別可能な多層パーセプトロンと畳み込みニューラルネットワークによって記憶される。
我々は,モデル出力分布のKL分散度を比較することで,モデルの特異な特徴に対する感度を推定するスコアを開発する。
オーバーフィッティングを防ぐための典型的な戦略は、ユニークな特徴記憶を防ぐものではない。
論文 参考訳(メタデータ) (2022-05-20T10:48:18Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - Image Transformation Network for Privacy-Preserving Deep Neural Networks
and Its Security Evaluation [17.134566958534634]
プライバシー保護DNNのための画像生成のための変換ネットワークを提案する。
提案するネットワークは,視覚情報を強く保護するだけでなく,画像を用いた画像分類精度の維持にも有効である。
論文 参考訳(メタデータ) (2020-08-07T12:58:45Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。