論文の概要: Perceptual Indistinguishability-Net (PI-Net): Facial Image Obfuscation
with Manipulable Semantics
- arxiv url: http://arxiv.org/abs/2104.01753v2
- Date: Wed, 7 Apr 2021 09:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 13:09:24.172024
- Title: Perceptual Indistinguishability-Net (PI-Net): Facial Image Obfuscation
with Manipulable Semantics
- Title(参考訳): 知覚的不識別性ネットワーク(PI-Net):マニピュラブルセマンティックスによる顔画像の難読化
- Authors: Jia-Wei Chen, Li-Ju Chen, Chia-Mu Yu, Chun-Shien Lu
- Abstract要約: 特に画像に対する正式なプライバシー概念として、知覚的無区別性(PI)を提案します。
また,PI保証による画像難読化を実現するプライバシー保護機構であるPI-Netを提案する。
- 参考スコア(独自算出の注目度): 15.862524532287397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing use of camera devices, the industry has many image datasets
that provide more opportunities for collaboration between the machine learning
community and industry. However, the sensitive information in the datasets
discourages data owners from releasing these datasets. Despite recent research
devoted to removing sensitive information from images, they provide neither
meaningful privacy-utility trade-off nor provable privacy guarantees. In this
study, with the consideration of the perceptual similarity, we propose
perceptual indistinguishability (PI) as a formal privacy notion particularly
for images. We also propose PI-Net, a privacy-preserving mechanism that
achieves image obfuscation with PI guarantee. Our study shows that PI-Net
achieves significantly better privacy utility trade-off through public image
data.
- Abstract(参考訳): カメラデバイスの普及に伴い、業界には多くの画像データセットがあり、機械学習コミュニティと業界との間のコラボレーションの機会を提供する。
しかし、データセットのセンシティブな情報は、データ所有者がこれらのデータセットをリリースすることを妨げます。
画像から機密情報を取り除こうとする最近の研究にもかかわらず、それらは有意義なプライバシー利用のトレードオフや証明可能なプライバシー保証を提供していない。
本研究では,知覚的類似性を考慮して,画像の形式的プライバシー概念として知覚的識別可能性(pi)を提案する。
また,PI保証による画像難読化を実現するプライバシー保護機構であるPI-Netを提案する。
本研究は,PI-Netが公開画像データによるプライバシー保護のトレードオフを著しく改善することを示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Region of Interest Loss for Anonymizing Learned Image Compression [3.0936354370614607]
人間の顔が認識不能になり,人体が検出不能となるような,十分な匿名化を実現する方法を示す。
このアプローチは、ネットワーク越しに機密性の高い匿名化データを送信するのではなく、キャプチャデバイス上の1ステップで圧縮と匿名化を可能にする。
論文 参考訳(メタデータ) (2024-06-09T10:36:06Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - DP-Image: Differential Privacy for Image Data in Feature Space [23.593790091283225]
本稿では,画像中のユーザの個人情報を保護できるDPイメージと呼ばれる,画像認識型差分プライバシーの概念を導入する。
提案手法は, 画像に対して優れたDP保護を提供し, 顔への歪みを制御可能であることを示す。
論文 参考訳(メタデータ) (2021-03-12T04:02:23Z) - Subverting Privacy-Preserving GANs: Hiding Secrets in Sanitized Images [13.690485523871855]
最先端のアプローチでは、プライバシ保護による生成的敵ネットワーク(PP-GAN)を使用して、ユーザのアイデンティティを漏洩することなく、信頼できる表情認識を可能にする。
PP-GANの高感度化出力画像に機密識別データを隠蔽して後で抽出できることを示す。
論文 参考訳(メタデータ) (2020-09-19T19:02:17Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。