論文の概要: Image Classifiers Leak Sensitive Attributes About Their Classes
- arxiv url: http://arxiv.org/abs/2303.09289v1
- Date: Thu, 16 Mar 2023 13:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:31:24.011552
- Title: Image Classifiers Leak Sensitive Attributes About Their Classes
- Title(参考訳): イメージ分類器がクラスに関する機密情報を漏洩
- Authors: Lukas Struppek, Dominik Hintersdorf, Felix Friedrich, Manuel Brack,
Patrick Schramowski, Kristian Kersting
- Abstract要約: 第1級属性推論攻撃(Caia)について紹介する。
Caiaはブラックボックスの設定で個々のクラスの機密属性を推論する。
カイアは、髪の色、性別、人種的外観など、未公表の繊細な属性を正確に推測できることを示す。
- 参考スコア(独自算出の注目度): 15.957198667607006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network-based image classifiers are powerful tools for computer vision
tasks, but they inadvertently reveal sensitive attribute information about
their classes, raising concerns about their privacy. To investigate this
privacy leakage, we introduce the first Class Attribute Inference Attack
(Caia), which leverages recent advances in text-to-image synthesis to infer
sensitive attributes of individual classes in a black-box setting, while
remaining competitive with related white-box attacks. Our extensive experiments
in the face recognition domain show that Caia can accurately infer undisclosed
sensitive attributes, such as an individual's hair color, gender and racial
appearance, which are not part of the training labels. Interestingly, we
demonstrate that adversarial robust models are even more vulnerable to such
privacy leakage than standard models, indicating that a trade-off between
robustness and privacy exists.
- Abstract(参考訳): ニューラルネットワークベースのイメージ分類器は、コンピュータビジョンタスクのための強力なツールであるが、クラスに関する機密属性情報を不注意に明らかにし、プライバシに関する懸念を提起する。
このプライバシー漏洩を調査するために,ブラックボックス設定で個々のクラスの機密属性を推測する手法として,テキストと画像合成の最近の進歩を活用しつつ,関連するホワイトボックス攻撃と競合する最初のクラス属性推論攻撃(Caia)を導入する。
顔認識領域における我々の広範な実験は、カイアがトレーニングラベルに含まれていない個人の髪の色、性別、人種的外観など、未公表の機密属性を正確に推測できることを示している。
興味深いことに、敵対的なロバストモデルが、標準モデルよりもプライバシーリークに対してさらに脆弱であることを示し、ロバスト性とプライバシのトレードオフが存在することを示している。
関連論文リスト
- How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Visual Privacy Protection Based on Type-I Adversarial Attack [89.37827033872847]
本稿では,データの視覚的プライバシを保護するために,敵攻撃に基づく手法を提案する。
具体的には、DNNによって正確に予測されながら、プライベートデータの視覚情報を暗号化する。
顔認識タスクにおける実験結果から,提案手法は顔画像の視覚情報を深く隠蔽できることが示された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - On Fair Classification with Mostly Private Sensitive Attributes [19.858825899838013]
半私的環境での公平な分類に関する新しい問題について検討する。
センシティブな属性のほとんどはプライベートであり、わずかな量のクリーンな属性しか利用できない。
本稿では,プライバシ保証の下でノイズに敏感な属性の修正を学習する新しいフレームワークであるFairSPを提案する。
論文 参考訳(メタデータ) (2022-07-18T01:10:25Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Training privacy-preserving video analytics pipelines by suppressing
features that reveal information about private attributes [40.31692020706419]
我々は、デプロイされたディープニューラルネットワークによって抽出された機能にアクセス可能な敵を検討し、これらの機能を使用してプライベート属性を予測する。
我々は,個人属性を正確に予測し難い特徴の抽出を促す混乱損失を用いて,ネットワークのトレーニングを変更する。
その結果、提案したPrivateNetは、元のネットワークと比較して、最先端の感情認識の個人情報の漏洩を2.88%、年齢グループで13.06%削減できることがわかった。
論文 参考訳(メタデータ) (2022-03-05T01:31:07Z) - Are Your Sensitive Attributes Private? Novel Model Inversion Attribute
Inference Attacks on Classification Models [22.569705869469814]
トレーニングデータ中のレコードの非感受性属性を敵が知る場合のモデル反転攻撃に着目した。
我々は,信頼性スコアに基づくモデル逆属性推論攻撃を考案し,その精度を著しく向上させる。
また、ターゲットレコードの他の(非感受性の)属性が敵に未知なシナリオにまで攻撃を拡大します。
論文 参考訳(メタデータ) (2022-01-23T21:27:20Z) - Honest-but-Curious Nets: Sensitive Attributes of Private Inputs can be
Secretly Coded into the Entropy of Classifiers' Outputs [1.0742675209112622]
非センシティブなターゲット属性の分類のために訓練されたディープニューラルネットワークは、入力データのセンシティブな属性を明らかにすることができる。
深層分類器は,ユーザの入力データの機密属性を,推論時に秘密裏に符号化するように訓練できることを示す。
論文 参考訳(メタデータ) (2021-05-25T16:27:57Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。