論文の概要: SocialGuard: An Adversarial Example Based Privacy-Preserving Technique
for Social Images
- arxiv url: http://arxiv.org/abs/2011.13560v1
- Date: Fri, 27 Nov 2020 05:12:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:46:50.886370
- Title: SocialGuard: An Adversarial Example Based Privacy-Preserving Technique
for Social Images
- Title(参考訳): SocialGuard: ソーシャルイメージの逆例に基づくプライバシ保護技術
- Authors: Mingfu Xue, Shichang Sun, Zhiyu Wu, Can He, Jian Wang, Weiqiang Liu
- Abstract要約: 本稿では,対象物検知器によるプライバシ盗難に対するソーシャルイメージのための,新たな逆例に基づくプライバシ保存手法を提案する。
提案手法の有効性を評価するために,プライバシ保存成功率とプライバシリーク率の2つの指標を用いる。
MS-COCOとPASCAL VOC 2007データセットのプライバシ保存成功率は96.1%と99.3%である。
- 参考スコア(独自算出の注目度): 6.321399006735314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The popularity of various social platforms has prompted more people to share
their routine photos online. However, undesirable privacy leakages occur due to
such online photo sharing behaviors. Advanced deep neural network (DNN) based
object detectors can easily steal users' personal information exposed in shared
photos. In this paper, we propose a novel adversarial example based
privacy-preserving technique for social images against object detectors based
privacy stealing. Specifically, we develop an Object Disappearance Algorithm to
craft two kinds of adversarial social images. One can hide all objects in the
social images from being detected by an object detector, and the other can make
the customized sensitive objects be incorrectly classified by the object
detector. The Object Disappearance Algorithm constructs perturbation on a clean
social image. After being injected with the perturbation, the social image can
easily fool the object detector, while its visual quality will not be degraded.
We use two metrics, privacy-preserving success rate and privacy leakage rate,
to evaluate the effectiveness of the proposed method. Experimental results show
that, the proposed method can effectively protect the privacy of social images.
The privacy-preserving success rates of the proposed method on MS-COCO and
PASCAL VOC 2007 datasets are high up to 96.1% and 99.3%, respectively, and the
privacy leakage rates on these two datasets are as low as 0.57% and 0.07%,
respectively. In addition, compared with existing image processing methods (low
brightness, noise, blur, mosaic and JPEG compression), the proposed method can
achieve much better performance in privacy protection and image visual quality
maintenance.
- Abstract(参考訳): さまざまなソーシャルプラットフォームの人気は、人々が日常的な写真をオンラインで共有するきっかけとなった。
しかし、このようなオンライン写真共有行動によって、望ましくないプライバシーリークが発生する。
advanced deep neural network (dnn)ベースのオブジェクト検出器は、共有写真に露出したユーザーの個人情報を容易に盗むことができる。
本稿では,対象物検知器によるプライバシ盗難に対するソーシャルイメージの新たな逆例に基づくプライバシ保存手法を提案する。
具体的には,2種類の敵対的ソーシャル画像を作成するためのオブジェクト消去アルゴリズムを開発した。
ソーシャルイメージ内のすべてのオブジェクトを、オブジェクト検出器によって検出されるのを防ぎ、一方は、カスタマイズされた機密オブジェクトを、オブジェクト検出器によって不正に分類することができる。
Object Disappearance Algorithmは、クリーンな社会的イメージに摂動を構築する。
摂動を注入した後、社会的イメージは容易に物体検出器を騙すことができるが、その視覚品質は劣化しない。
提案手法の有効性を評価するために,プライバシ保存成功率とプライバシリーク率の2つの指標を用いる。
実験の結果,提案手法は社会的画像のプライバシーを効果的に保護できることがわかった。
ms-cocoおよびpascal voc 2007データセットにおける提案手法のプライバシ保護成功率は、それぞれ96.1%、99.3%であり、これら2つのデータセットのプライバシリーク率は0.57%、0.07%である。
さらに,既存の画像処理手法(低輝度,ノイズ,ぼかし,モザイク,jpeg圧縮)と比較して,提案手法はプライバシ保護と画像品質の維持において,はるかに優れた性能を実現することができる。
関連論文リスト
- Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - SHAN: Object-Level Privacy Detection via Inference on Scene Heterogeneous Graph [5.050631286347773]
プライバシオブジェクト検出は、画像内のプライベートオブジェクトを正確に見つけることを目的としている。
既存の手法は、精度、一般化、解釈可能性の重大な欠陥に悩まされている。
本稿では、画像からシーン異質グラフを構成するモデルであるSHAN(Scene Heterogeneous Graph Attention Network)を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:32:14Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - Differentially Private Imaging via Latent Space Manipulation [5.446368808660037]
本稿では,無条件に訓練された生成モデルの潜在空間を操作することにより,画像の難読化に新たなアプローチを提案する。
これは、イメージプライバシに対する最初のアプローチで、$varepsilon$-differential privacy emphを満たす。
論文 参考訳(メタデータ) (2021-03-08T17:32:08Z) - FoggySight: A Scheme for Facial Lookup Privacy [8.19666118455293]
ソーシャルメディアにアップロードされる前に、相手の事例文献から学んだ教訓を適用して、プライバシー保護の方法で顔写真を修正するソリューションを提案し、評価します。
f foggysightの核となる機能はコミュニティ保護戦略であり、ユーザがプライバシーの保護者として行動することで、敵の機械学習アルゴリズムによって生成されたデコイ写真をアップロードする。
我々は、このスキームのさまざまな設定を調査し、未知の内部構造を持つ顔認識サービスを含む、顔のプライバシー保護を可能にすることを見出します。
論文 参考訳(メタデータ) (2020-12-15T19:57:18Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。