論文の概要: Fairly Private: Investigating The Fairness of Visual Privacy
Preservation Algorithms
- arxiv url: http://arxiv.org/abs/2301.05012v1
- Date: Thu, 12 Jan 2023 13:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:09:07.126684
- Title: Fairly Private: Investigating The Fairness of Visual Privacy
Preservation Algorithms
- Title(参考訳): かなりプライベート:視覚プライバシー保護アルゴリズムの公平性を調査する
- Authors: Sophie Noiret, Siddharth Ravi, Martin Kampel, Francisco
Florez-Revuelta
- Abstract要約: 本稿では,一般的に使用されている視覚的プライバシ保護アルゴリズムの妥当性について検討する。
PubFigデータセットの実験は、提供されたプライバシ保護がグループ間で不平等であることを明確に示している。
- 参考スコア(独自算出の注目度): 1.5293427903448025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the privacy risks posed by camera surveillance and facial recognition have
grown, so has the research into privacy preservation algorithms. Among these,
visual privacy preservation algorithms attempt to impart bodily privacy to
subjects in visuals by obfuscating privacy-sensitive areas. While disparate
performances of facial recognition systems across phenotypes are the subject of
much study, its counterpart, privacy preservation, is not commonly analysed
from a fairness perspective. In this paper, the fairness of commonly used
visual privacy preservation algorithms is investigated through the performances
of facial recognition models on obfuscated images. Experiments on the PubFig
dataset clearly show that the privacy protection provided is unequal across
groups.
- Abstract(参考訳): カメラの監視と顔認識によるプライバシーリスクの増加に伴い、プライバシー保護アルゴリズムの研究も行われている。
これらのうち、視覚的プライバシー保護アルゴリズムは、プライバシーに敏感な領域を曖昧にすることで、視覚障害者に身体的プライバシーを付与しようとする。
表現型にまたがる顔認識システムの異なる性能は、多くの研究の対象となっているが、プライバシ保護(privacy preservation)はフェアネスの観点からは一般的には分析されていない。
本稿では, 難読画像上での顔認識モデルの性能から, 一般的に使われている視覚的プライバシー保護アルゴリズムの公平性を検討した。
PubFigデータセットの実験は、提供されたプライバシ保護がグループ間で不平等であることを明確に示している。
関連論文リスト
- Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - SHAN: Object-Level Privacy Detection via Inference on Scene Heterogeneous Graph [5.050631286347773]
プライバシオブジェクト検出は、画像内のプライベートオブジェクトを正確に見つけることを目的としている。
既存の手法は、精度、一般化、解釈可能性の重大な欠陥に悩まされている。
本稿では、画像からシーン異質グラフを構成するモデルであるSHAN(Scene Heterogeneous Graph Attention Network)を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:32:14Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Privacy-Preserving Face Recognition Using Random Frequency Components [46.95003101593304]
顔認識によってプライバシーの懸念が高まっている。
人間の知覚可能な低周波成分を抽出することで視覚情報を隠蔽することを提案する。
得られた知見を,プライバシ保護のための新しい顔認識手法であるPartialFaceに抽出する。
論文 参考訳(メタデータ) (2023-08-21T04:31:02Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - An Attack on Feature Level-based Facial Soft-biometric Privacy
Enhancement [13.780253190395715]
特徴レベルに基づく顔ソフトバイオメトリック・プライバシ・エンハンスメント技術に対する攻撃を導入する。
プライバシーの強化を回避することができ、性別を最大90%の精度で正しく分類することができる。
論文 参考訳(メタデータ) (2021-11-24T10:41:15Z) - FoggySight: A Scheme for Facial Lookup Privacy [8.19666118455293]
ソーシャルメディアにアップロードされる前に、相手の事例文献から学んだ教訓を適用して、プライバシー保護の方法で顔写真を修正するソリューションを提案し、評価します。
f foggysightの核となる機能はコミュニティ保護戦略であり、ユーザがプライバシーの保護者として行動することで、敵の機械学習アルゴリズムによって生成されたデコイ写真をアップロードする。
我々は、このスキームのさまざまな設定を調査し、未知の内部構造を持つ顔認識サービスを含む、顔のプライバシー保護を可能にすることを見出します。
論文 参考訳(メタデータ) (2020-12-15T19:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。