論文の概要: Visual Privacy Protection Based on Type-I Adversarial Attack
- arxiv url: http://arxiv.org/abs/2209.15304v1
- Date: Fri, 30 Sep 2022 08:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 15:41:41.078521
- Title: Visual Privacy Protection Based on Type-I Adversarial Attack
- Title(参考訳): タイプI攻撃に基づく視覚的プライバシー保護
- Authors: Zhigang Su and Dawei Zhou and Decheng Liu and Nannan Wang and Zhen
Wang and Xinbo Gao
- Abstract要約: 本稿では,データの視覚的プライバシを保護するために,敵攻撃に基づく手法を提案する。
具体的には、DNNによって正確に予測されながら、プライベートデータの視覚情報を暗号化する。
顔認識タスクにおける実験結果から,提案手法は顔画像の視覚情報を深く隠蔽できることが示された。
- 参考スコア(独自算出の注目度): 89.37827033872847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of online artificial intelligence systems, many deep
neural networks (DNNs) have been deployed in cloud environments. In practical
applications, developers or users need to provide their private data to DNNs,
such as faces. However, data transmitted and stored in the cloud is insecure
and at risk of privacy leakage. In this work, inspired by Type-I adversarial
attack, we propose an adversarial attack-based method to protect visual privacy
of data. Specifically, the method encrypts the visual information of private
data while maintaining them correctly predicted by DNNs, without modifying the
model parameters. The empirical results on face recognition tasks show that the
proposed method can deeply hide the visual information in face images and
hardly affect the accuracy of the recognition models. In addition, we further
extend the method to classification tasks and also achieve state-of-the-art
performance.
- Abstract(参考訳): オンライン人工知能システムの開発に伴い、多くのディープニューラルネットワーク(DNN)がクラウド環境にデプロイされている。
実践的なアプリケーションでは、開発者やユーザは、顔などのプライベートデータをDNNに提供する必要があります。
しかし、クラウドに送信され、保存されるデータは安全ではなく、プライバシー漏洩のリスクがある。
本稿では,i型攻撃に着想を得て,データの視覚的プライバシーを保護するための攻撃ベース手法を提案する。
具体的には、モデルパラメータを変更することなく、DNNによって正確に予測されながら、プライベートデータの視覚情報を暗号化する。
顔認識タスクにおける実験結果から,提案手法は顔画像の視覚情報を深く隠蔽し,認識モデルの精度にはほとんど影響しないことが示された。
さらに,タスクを分類する手法をさらに拡張し,最先端のパフォーマンスを実現する。
関連論文リスト
- Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Footprints of Data in a Classifier Model: The Privacy Issues and Their Mitigation through Data Obfuscation [0.9208007322096533]
トレーニングデータのフットプリントを 予測モデルに埋め込むことは
テストデータとトレーニングデータのパフォーマンス品質の違いは、モデルをトレーニングしたデータの受動的識別を引き起こす。
この研究は、データフットプリントから生じる脆弱性に対処することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-02T13:56:37Z) - Deep Variational Privacy Funnel: General Modeling with Applications in
Face Recognition [3.351714665243138]
エンド・ツー・エンド・トレーニング・フレームワークを用いたプライバシー保護表現学習手法を開発した。
我々はこのモデルを最先端の顔認識システムに適用する。
論文 参考訳(メタデータ) (2024-01-26T11:32:53Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - A Review on Visual Privacy Preservation Techniques for Active and
Assisted Living [0.0]
最先端の視覚的プライバシ保護方法を分類できる新しい分類法を導入する。
分類学のカテゴリーである知覚難読化法が強調される。
機械学習モデルに対する難読化についても検討する。
論文 参考訳(メタデータ) (2021-12-17T10:37:30Z) - Conditional Contrastive Learning: Removing Undesirable Information in
Self-Supervised Representations [108.29288034509305]
我々は,自己指導型表現において望ましくない情報を除去するために,条件付きコントラスト学習を開発する。
提案手法は,下流タスクの自己教師付き表現をうまく学習できることを実証的に実証する。
論文 参考訳(メタデータ) (2021-06-05T10:51:26Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Reinforcement learning for the privacy preservation and manipulation of
eye tracking data [12.486057928762898]
本稿では、眼球追跡データ操作のための強化学習に基づくアプローチを提案する。
本手法は,被験者のプライバシーを守るために有効であることを示す。
論文 参考訳(メタデータ) (2020-02-17T07:02:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。