論文の概要: Training privacy-preserving video analytics pipelines by suppressing
features that reveal information about private attributes
- arxiv url: http://arxiv.org/abs/2203.02635v1
- Date: Sat, 5 Mar 2022 01:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 08:13:23.851514
- Title: Training privacy-preserving video analytics pipelines by suppressing
features that reveal information about private attributes
- Title(参考訳): プライベート属性に関する情報を開示する機能を抑圧したプライバシー保護型ビデオ分析パイプラインのトレーニング
- Authors: Chau Yi Li and Andrea Cavallaro
- Abstract要約: 我々は、デプロイされたディープニューラルネットワークによって抽出された機能にアクセス可能な敵を検討し、これらの機能を使用してプライベート属性を予測する。
我々は,個人属性を正確に予測し難い特徴の抽出を促す混乱損失を用いて,ネットワークのトレーニングを変更する。
その結果、提案したPrivateNetは、元のネットワークと比較して、最先端の感情認識の個人情報の漏洩を2.88%、年齢グループで13.06%削減できることがわかった。
- 参考スコア(独自算出の注目度): 40.31692020706419
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are increasingly deployed for scene analytics, including
to evaluate the attention and reaction of people exposed to out-of-home
advertisements. However, the features extracted by a deep neural network that
was trained to predict a specific, consensual attribute (e.g. emotion) may also
encode and thus reveal information about private, protected attributes (e.g.
age or gender). In this work, we focus on such leakage of private information
at inference time. We consider an adversary with access to the features
extracted by the layers of a deployed neural network and use these features to
predict private attributes. To prevent the success of such an attack, we modify
the training of the network using a confusion loss that encourages the
extraction of features that make it difficult for the adversary to accurately
predict private attributes. We validate this training approach on image-based
tasks using a publicly available dataset. Results show that, compared to the
original network, the proposed PrivateNet can reduce the leakage of private
information of a state-of-the-art emotion recognition classifier by 2.88% for
gender and by 13.06% for age group, with a minimal effect on task accuracy.
- Abstract(参考訳): ディープニューラルネットワークは、家庭外の広告に晒された人々の注意と反応を評価するなど、シーン分析のためにますますデプロイされている。
しかし、特定のコンセンサス属性(例えば感情)を予測するように訓練されたディープニューラルネットワークによって抽出された特徴は、プライベートで保護された属性(例えば、年齢や性別)に関する情報もエンコードし、明らかにすることができる。
本研究は,推測時間における個人情報の漏洩に焦点をあてる。
我々は、デプロイされたニューラルネットワークの層から抽出された特徴にアクセス可能な敵を考え、これらの特徴を使ってプライベート属性を予測する。
このような攻撃の成功を防ぐために,ネットワークのトレーニングを混乱損失を用いて修正し,敵がプライベート属性を正確に予測することが困難となる特徴の抽出を促進する。
我々は、このトレーニングアプローチを、公開データセットを用いて画像ベースのタスクで検証する。
その結果,提案するプライマリネットは,従来のネットワークと比較して,性別で2.88%,年齢グループで13.06%,タスク精度に最小限の影響で,最先端の感情認識分類器の個人情報の漏洩を低減できることがわかった。
関連論文リスト
- Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Unintended memorisation of unique features in neural networks [15.174895411434026]
トレーニングデータに1回だけ発生するユニークな特徴は、識別可能な多層パーセプトロンと畳み込みニューラルネットワークによって記憶される。
我々は,モデル出力分布のKL分散度を比較することで,モデルの特異な特徴に対する感度を推定するスコアを開発する。
オーバーフィッティングを防ぐための典型的な戦略は、ユニークな特徴記憶を防ぐものではない。
論文 参考訳(メタデータ) (2022-05-20T10:48:18Z) - Measuring Unintended Memorisation of Unique Private Features in Neural
Networks [15.174895411434026]
トレーニングデータに1回だけ発生しても、ニューラルネットワークは意図せずユニークな特徴を記憶している。
ユニークな特徴の例として、トレーニング画像に誤って現れる人物の名前がある。
論文 参考訳(メタデータ) (2022-02-16T14:39:05Z) - Honest-but-Curious Nets: Sensitive Attributes of Private Inputs can be
Secretly Coded into the Entropy of Classifiers' Outputs [1.0742675209112622]
非センシティブなターゲット属性の分類のために訓練されたディープニューラルネットワークは、入力データのセンシティブな属性を明らかにすることができる。
深層分類器は,ユーザの入力データの機密属性を,推論時に秘密裏に符号化するように訓練できることを示す。
論文 参考訳(メタデータ) (2021-05-25T16:27:57Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Subverting Privacy-Preserving GANs: Hiding Secrets in Sanitized Images [13.690485523871855]
最先端のアプローチでは、プライバシ保護による生成的敵ネットワーク(PP-GAN)を使用して、ユーザのアイデンティティを漏洩することなく、信頼できる表情認識を可能にする。
PP-GANの高感度化出力画像に機密識別データを隠蔽して後で抽出できることを示す。
論文 参考訳(メタデータ) (2020-09-19T19:02:17Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。