論文の概要: Privacy Safe Representation Learning via Frequency Filtering Encoder
- arxiv url: http://arxiv.org/abs/2208.02482v1
- Date: Thu, 4 Aug 2022 06:16:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:28:05.864417
- Title: Privacy Safe Representation Learning via Frequency Filtering Encoder
- Title(参考訳): 周波数フィルタリングエンコーダによるプライバシー保護表現学習
- Authors: Jonghu Jeong, Minyong Cho, Philipp Benz, Jinwoo Hwang, Jeewook Kim,
Seungkwan Lee, Tae-hoon Kim
- Abstract要約: Adversarial Representation Learning (ARL) は、クライアント側で実行し、画像を難読化するエンコーダを訓練する一般的な手法である。
難読化イメージを安全に送信し、プライバシの懸念なくサーバ上のタスクに使用することができると仮定する。
我々は低域フィルタリングにより拡張された新しいARL手法を導入し、周波数領域で符号化される情報量を制限する。
- 参考スコア(独自算出の注目度): 7.792424517008007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models are increasingly deployed in real-world applications.
These models are often deployed on the server-side and receive user data in an
information-rich representation to solve a specific task, such as image
classification. Since images can contain sensitive information, which users
might not be willing to share, privacy protection becomes increasingly
important. Adversarial Representation Learning (ARL) is a common approach to
train an encoder that runs on the client-side and obfuscates an image. It is
assumed, that the obfuscated image can safely be transmitted and used for the
task on the server without privacy concerns. However, in this work, we find
that training a reconstruction attacker can successfully recover the original
image of existing ARL methods. To this end, we introduce a novel ARL method
enhanced through low-pass filtering, limiting the available information amount
to be encoded in the frequency domain. Our experimental results reveal that our
approach withstands reconstruction attacks while outperforming previous
state-of-the-art methods regarding the privacy-utility trade-off. We further
conduct a user study to qualitatively assess our defense of the reconstruction
attack.
- Abstract(参考訳): ディープラーニングモデルは、現実のアプリケーションにますますデプロイされる。
これらのモデルは、しばしばサーバ側に配置され、画像分類などの特定のタスクを解決するために、情報豊富な表現でユーザデータを受信する。
画像には、ユーザーが共有する意思のない機密情報が含まれているため、プライバシー保護はますます重要になる。
Adversarial Representation Learning (ARL) は、クライアント側で実行し、画像を難読化するエンコーダを訓練する一般的な手法である。
難読化イメージを安全に送信し、プライバシの懸念なくサーバ上のタスクに使用することができると仮定する。
しかし,本研究では,再建攻撃者の訓練により,既存のARL手法の原画像の復元に成功した。
そこで本研究では,低パスフィルタによる新しいarl方式を導入し,周波数領域で符号化する情報量を制限する。
提案手法は,プライバシ利用トレードオフに関する先行手法を上回りつつ,レコンストラクション攻撃に耐えうることを実証した。
さらに,再建攻撃の防御を質的に評価するために,ユーザ調査を行う。
関連論文リスト
- Exploring User-level Gradient Inversion with a Diffusion Prior [17.2657358645072]
本稿では,大規模なバッチ設定の回復性を高めるために,デノナイジング拡散モデルを強い画像として適用した新しい勾配反転攻撃を提案する。
個々のサンプルを再構築し,大規模なバッチや画像サイズに苦しむ従来の攻撃とは違って,本手法では,ユーザに対応する機密性の高い共有セマンティック情報をキャプチャする代表画像の復元が目的である。
論文 参考訳(メタデータ) (2024-09-11T14:20:47Z) - Unveiling Hidden Visual Information: A Reconstruction Attack Against Adversarial Visual Information Hiding [6.649753747542211]
代表的な画像暗号化法は、敵対的視覚情報隠蔽(AVIH)である。
AVIH法では、型I対逆例法は、全く異なるように見えるが、依然としてマシンによって元のものとして認識されている画像を生成する。
本稿では,AVIH暗号方式に対する二重戦略DR攻撃を,生成的対逆損失と(2)拡張的ID損失を取り入れて導入する。
論文 参考訳(メタデータ) (2024-08-08T06:58:48Z) - Attack GAN (AGAN ): A new Security Evaluation Tool for Perceptual Encryption [1.6385815610837167]
最先端(SOTA)ディープラーニングモデルのトレーニングには大量のデータが必要である。
知覚暗号化は、イメージを認識不能なフォーマットに変換して、トレーニングデータ内のセンシティブな視覚情報を保護する。
これは、モデルの精度を大幅に下げるコストが伴う。
Adversarial Visual Information Hiding (AVIH)は、人間の目には認識できない暗号化された画像を作成することによって、画像のプライバシを保護するために、この欠点を克服する。
論文 参考訳(メタデータ) (2024-07-09T06:03:32Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - A Stealthy Wrongdoer: Feature-Oriented Reconstruction Attack against Split Learning [14.110303634976272]
Split Learning(SL)は、プライバシ保護機能と最小限の計算要件で有名な分散学習フレームワークである。
以前の研究は、トレーニングデータを再構築するサーバ敵によるSLシステムの潜在的なプライバシー侵害について、一貫して強調している。
本稿では,特徴指向再構築攻撃 (FORA) という,SL上での半正直なデータ再構成攻撃について紹介する。
論文 参考訳(メタデータ) (2024-05-07T08:38:35Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Recoverable Privacy-Preserving Image Classification through Noise-like
Adversarial Examples [26.026171363346975]
分類などのクラウドベースの画像関連サービスが重要になっている。
本研究では,新しいプライバシー保護画像分類手法を提案する。
暗号化された画像は、秘密鍵を使用して、高い忠実度(保存可能な)で元の形式に復号することができる。
論文 参考訳(メタデータ) (2023-10-19T13:01:58Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。