論文の概要: Privacy Safe Representation Learning via Frequency Filtering Encoder
- arxiv url: http://arxiv.org/abs/2208.02482v1
- Date: Thu, 4 Aug 2022 06:16:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:28:05.864417
- Title: Privacy Safe Representation Learning via Frequency Filtering Encoder
- Title(参考訳): 周波数フィルタリングエンコーダによるプライバシー保護表現学習
- Authors: Jonghu Jeong, Minyong Cho, Philipp Benz, Jinwoo Hwang, Jeewook Kim,
Seungkwan Lee, Tae-hoon Kim
- Abstract要約: Adversarial Representation Learning (ARL) は、クライアント側で実行し、画像を難読化するエンコーダを訓練する一般的な手法である。
難読化イメージを安全に送信し、プライバシの懸念なくサーバ上のタスクに使用することができると仮定する。
我々は低域フィルタリングにより拡張された新しいARL手法を導入し、周波数領域で符号化される情報量を制限する。
- 参考スコア(独自算出の注目度): 7.792424517008007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models are increasingly deployed in real-world applications.
These models are often deployed on the server-side and receive user data in an
information-rich representation to solve a specific task, such as image
classification. Since images can contain sensitive information, which users
might not be willing to share, privacy protection becomes increasingly
important. Adversarial Representation Learning (ARL) is a common approach to
train an encoder that runs on the client-side and obfuscates an image. It is
assumed, that the obfuscated image can safely be transmitted and used for the
task on the server without privacy concerns. However, in this work, we find
that training a reconstruction attacker can successfully recover the original
image of existing ARL methods. To this end, we introduce a novel ARL method
enhanced through low-pass filtering, limiting the available information amount
to be encoded in the frequency domain. Our experimental results reveal that our
approach withstands reconstruction attacks while outperforming previous
state-of-the-art methods regarding the privacy-utility trade-off. We further
conduct a user study to qualitatively assess our defense of the reconstruction
attack.
- Abstract(参考訳): ディープラーニングモデルは、現実のアプリケーションにますますデプロイされる。
これらのモデルは、しばしばサーバ側に配置され、画像分類などの特定のタスクを解決するために、情報豊富な表現でユーザデータを受信する。
画像には、ユーザーが共有する意思のない機密情報が含まれているため、プライバシー保護はますます重要になる。
Adversarial Representation Learning (ARL) は、クライアント側で実行し、画像を難読化するエンコーダを訓練する一般的な手法である。
難読化イメージを安全に送信し、プライバシの懸念なくサーバ上のタスクに使用することができると仮定する。
しかし,本研究では,再建攻撃者の訓練により,既存のARL手法の原画像の復元に成功した。
そこで本研究では,低パスフィルタによる新しいarl方式を導入し,周波数領域で符号化する情報量を制限する。
提案手法は,プライバシ利用トレードオフに関する先行手法を上回りつつ,レコンストラクション攻撃に耐えうることを実証した。
さらに,再建攻撃の防御を質的に評価するために,ユーザ調査を行う。
関連論文リスト
- Recoverable Privacy-Preserving Image Classification through Noise-like
Adversarial Examples [26.026171363346975]
分類などのクラウドベースの画像関連サービスが重要になっている。
本研究では,新しいプライバシー保護画像分類手法を提案する。
暗号化された画像は、秘密鍵を使用して、高い忠実度(保存可能な)で元の形式に復号することができる。
論文 参考訳(メタデータ) (2023-10-19T13:01:58Z) - Privacy-Preserving Encrypted Low-Dose CT Denoising [9.087708214721253]
最近のトレンドは、大量の自己コンパイルされたプライベートデータを持つ強力なモデルをトレーニングするサーバーだ。
モデルリークを避けるため、ユーザはデータをサーバモデルにアップロードする必要がある。
プライバシー保護クラウドサービスを実現するために,LDCTを直接暗号化ドメインに記述することを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:40:25Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning [14.505867475659276]
本稿では,プライバシ保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
我々は、StyleGANベースモデルと潜伏拡散ベースモデルという、最先端の2つの生成モデルを使用している。
その結果,提案手法により再構成された画像は,通常の画像と知覚的に類似していることがわかった。
論文 参考訳(メタデータ) (2023-03-09T05:00:17Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Analysis and Mitigations of Reverse Engineering Attacks on Local Feature
Descriptors [15.973484638972739]
我々は,制御条件下でスパース特徴マップに対するリバースエンジニアリング攻撃を示し,人気のある記述子の脆弱性を分析した。
画像マッチング精度を維持しつつ,プライバシ復元リスクを慎重にバランスをとるために,ディスクリプタのサブセットを選択する潜在的な緩和手法を評価する。
論文 参考訳(メタデータ) (2021-05-09T01:41:36Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Inverting Gradients -- How easy is it to break privacy in federated
learning? [13.632998588216523]
連合学習は、サーバー上のニューラルネットワークを協調的に訓練するように設計されている。
各ユーザはネットワークの現在の重みを受信し、ローカルデータに基づいてパラメータ更新(勾配)を送信します。
以前の攻撃は、選択された設定でのみ成功することによって、セキュリティの誤った感覚をもたらした。
パラメータ勾配の知識から高分解能で画像を忠実に再構成することは実際に可能であることを示す。
論文 参考訳(メタデータ) (2020-03-31T09:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。