論文の概要: Hiding Visual Information via Obfuscating Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2209.15304v4
- Date: Mon, 28 Aug 2023 03:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 01:33:43.834599
- Title: Hiding Visual Information via Obfuscating Adversarial Perturbations
- Title(参考訳): 可視性摂動による視覚情報の隠蔽
- Authors: Zhigang Su and Dawei Zhou and Nannan Wangu and Decheng Li and Zhen
Wang and Xinbo Gao
- Abstract要約: 本稿では,データの視覚的プライバシを保護するために,敵対的な視覚情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
認識・分類タスクの実験結果から,提案手法が視覚情報を効果的に隠蔽できることが示唆された。
- 参考スコア(独自算出の注目度): 47.315523613407244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing leakage and misuse of visual information raise security and privacy
concerns, which promotes the development of information protection. Existing
adversarial perturbations-based methods mainly focus on the de-identification
against deep learning models. However, the inherent visual information of the
data has not been well protected. In this work, inspired by the Type-I
adversarial attack, we propose an adversarial visual information hiding method
to protect the visual privacy of data. Specifically, the method generates
obfuscating adversarial perturbations to obscure the visual information of the
data. Meanwhile, it maintains the hidden objectives to be correctly predicted
by models. In addition, our method does not modify the parameters of the
applied model, which makes it flexible for different scenarios. Experimental
results on the recognition and classification tasks demonstrate that the
proposed method can effectively hide visual information and hardly affect the
performances of models. The code is available in the supplementary material.
- Abstract(参考訳): ビジュアル情報の漏洩と誤用の増加は、セキュリティとプライバシーの懸念を高め、情報保護の開発を促進する。
既存の対向的摂動に基づく手法は、主に深層学習モデルに対する識別の除去に焦点を当てている。
しかし、データ固有の視覚情報は十分に保護されていない。
本稿では,type-iアドバーサリー攻撃に触発されて,データの視覚プライバシを保護するためのアドバーサリービジュアル情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
一方、モデルによって正しく予測される隠れた目的を維持している。
さらに,本手法は適用モデルのパラメータを変更しないため,異なるシナリオに対して柔軟である。
認識・分類タスクの実験結果は,提案手法が視覚情報を効果的に隠蔽し,モデルの性能にはほとんど影響しないことを示す。
コードは補足資料で入手できる。
関連論文リスト
- Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Footprints of Data in a Classifier Model: The Privacy Issues and Their Mitigation through Data Obfuscation [0.9208007322096533]
トレーニングデータのフットプリントを 予測モデルに埋め込むことは
テストデータとトレーニングデータのパフォーマンス品質の違いは、モデルをトレーニングしたデータの受動的識別を引き起こす。
この研究は、データフットプリントから生じる脆弱性に対処することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-02T13:56:37Z) - Deep Variational Privacy Funnel: General Modeling with Applications in
Face Recognition [3.351714665243138]
エンド・ツー・エンド・トレーニング・フレームワークを用いたプライバシー保護表現学習手法を開発した。
我々はこのモデルを最先端の顔認識システムに適用する。
論文 参考訳(メタデータ) (2024-01-26T11:32:53Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - A Review on Visual Privacy Preservation Techniques for Active and
Assisted Living [0.0]
最先端の視覚的プライバシ保護方法を分類できる新しい分類法を導入する。
分類学のカテゴリーである知覚難読化法が強調される。
機械学習モデルに対する難読化についても検討する。
論文 参考訳(メタデータ) (2021-12-17T10:37:30Z) - Conditional Contrastive Learning: Removing Undesirable Information in
Self-Supervised Representations [108.29288034509305]
我々は,自己指導型表現において望ましくない情報を除去するために,条件付きコントラスト学習を開発する。
提案手法は,下流タスクの自己教師付き表現をうまく学習できることを実証的に実証する。
論文 参考訳(メタデータ) (2021-06-05T10:51:26Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Reinforcement learning for the privacy preservation and manipulation of
eye tracking data [12.486057928762898]
本稿では、眼球追跡データ操作のための強化学習に基づくアプローチを提案する。
本手法は,被験者のプライバシーを守るために有効であることを示す。
論文 参考訳(メタデータ) (2020-02-17T07:02:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。