論文の概要: Shielding Latent Face Representations From Privacy Attacks
- arxiv url: http://arxiv.org/abs/2505.12688v1
- Date: Mon, 19 May 2025 04:23:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.399397
- Title: Shielding Latent Face Representations From Privacy Attacks
- Title(参考訳): プライバシ攻撃による潜伏した顔表現の保護
- Authors: Arjun Ramesh Kaushik, Bharat Chandra Yalavarthi, Arun Ross, Vishnu Boddeti, Nalini Ratha,
- Abstract要約: 埋め込みのための多層保護フレームワークを提案する。
a) 完全同型暗号化(FHE)を用いた埋め込み、(b) 可逆な特徴多様体ハッシュを用いてそれらをハッシュする。
従来の暗号化方法とは異なり、FHEは暗号化データ上で直接計算を可能にし、強力なプライバシー保証を維持しながら、ダウンストリーム分析を可能にする。
- 参考スコア(独自算出の注目度): 8.251076234961632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In today's data-driven analytics landscape, deep learning has become a powerful tool, with latent representations, known as embeddings, playing a central role in several applications. In the face analytics domain, such embeddings are commonly used for biometric recognition (e.g., face identification). However, these embeddings, or templates, can inadvertently expose sensitive attributes such as age, gender, and ethnicity. Leaking such information can compromise personal privacy and affect civil liberty and human rights. To address these concerns, we introduce a multi-layer protection framework for embeddings. It consists of a sequence of operations: (a) encrypting embeddings using Fully Homomorphic Encryption (FHE), and (b) hashing them using irreversible feature manifold hashing. Unlike conventional encryption methods, FHE enables computations directly on encrypted data, allowing downstream analytics while maintaining strong privacy guarantees. To reduce the overhead of encrypted processing, we employ embedding compression. Our proposed method shields latent representations of sensitive data from leaking private attributes (such as age and gender) while retaining essential functional capabilities (such as face identification). Extensive experiments on two datasets using two face encoders demonstrate that our approach outperforms several state-of-the-art privacy protection methods.
- Abstract(参考訳): 今日のデータ駆動分析の世界では、ディープラーニングが強力なツールとなり、埋め込みとして知られる潜伏表現が、いくつかのアプリケーションにおいて中心的な役割を果たしている。
顔分析領域では、このような埋め込みは生体認証(例えば顔の識別)に一般的に使用される。
しかし、これらの埋め込み(またはテンプレート)は、年齢、性別、民族性などのセンシティブな属性を不注意に暴露することができる。
このような情報を漏洩することは、個人のプライバシーを侵害し、市民の自由と人権に影響を与える可能性がある。
これらの問題に対処するために、埋め込みのための多層保護フレームワークを導入する。
一連の操作からなる。
(a)完全同型暗号化(FHE)による埋め込みの暗号化
(b)不可逆的特徴多様体ハッシュを用いてハッシュする。
従来の暗号化方法とは異なり、FHEは暗号化データ上で直接計算を可能にし、強力なプライバシー保証を維持しながら、ダウンストリーム分析を可能にする。
暗号化処理のオーバーヘッドを軽減するため,埋め込み圧縮を用いる。
提案手法は,個人属性(年齢や性別など)の漏洩を防ぐとともに,重要な機能(顔の識別など)を維持する。
2つのフェースエンコーダを用いた2つのデータセットに対する大規模な実験により、我々のアプローチはいくつかの最先端のプライバシー保護手法より優れていることが示された。
関連論文リスト
- CipherFace: A Fully Homomorphic Encryption-Driven Framework for Secure Cloud-Based Facial Recognition [0.0]
本稿では,セキュアなクラウドベース顔認識のための同型暗号化駆動フレームワークであるCipherFaceを紹介する。
FHEを活用することで、CipherFaceは、効率的な距離計算のためにクラウドを活用しながら、埋め込みのプライバシを保証する。
本稿では,暗号化されたデータに対して,セキュアな類似性計算を行う上で重要な課題に対処する,ユークリッドとコサインの双方に対する新しい暗号化距離計算手法を提案する。
論文 参考訳(メタデータ) (2025-02-22T19:03:04Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Enhancing Privacy in Face Analytics Using Fully Homomorphic Encryption [8.742970921484371]
本稿では,FHE(Fully Homomorphic Encryption)と,PolyProtectと呼ばれるテンプレート保護方式を組み合わせた新しい手法を提案する。
提案手法は,非可逆性と無リンク性を保証し,ソフトバイオメトリック埋め込みの漏洩を効果的に防止する。
論文 参考訳(メタデータ) (2024-04-24T23:56:03Z) - Disguise without Disruption: Utility-Preserving Face De-Identification [40.484745636190034]
本研究では,修正データの利用性を確保しつつ,顔画像をシームレスに識別する新しいアルゴリズムであるDisguiseを紹介する。
本手法は, 難読化と非可逆性を最大化するために, 変分機構を用いて生成した合成物を用いて, 描写されたアイデンティティを抽出し置換することを含む。
提案手法を複数のデータセットを用いて広範に評価し,様々な下流タスクにおける従来の手法と比較して,高い非識別率と一貫性を示す。
論文 参考訳(メタデータ) (2023-03-23T13:50:46Z) - Hiding Visual Information via Obfuscating Adversarial Perturbations [47.315523613407244]
本稿では,データの視覚的プライバシを保護するために,敵対的な視覚情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
認識・分類タスクの実験結果から,提案手法が視覚情報を効果的に隠蔽できることが示唆された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。