論文の概要: Deep Variational Privacy Funnel: General Modeling with Applications in
Face Recognition
- arxiv url: http://arxiv.org/abs/2401.14792v1
- Date: Fri, 26 Jan 2024 11:32:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:12:36.794188
- Title: Deep Variational Privacy Funnel: General Modeling with Applications in
Face Recognition
- Title(参考訳): 深部変分プライバシーファンネル:顔認識への応用による一般モデリング
- Authors: Behrooz Razeghi, Parsa Rahimi, S\'ebastien Marcel
- Abstract要約: エンド・ツー・エンド・トレーニング・フレームワークを用いたプライバシー保護表現学習手法を開発した。
我々はこのモデルを最先端の顔認識システムに適用する。
- 参考スコア(独自算出の注目度): 3.351714665243138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we harness the information-theoretic Privacy Funnel (PF) model
to develop a method for privacy-preserving representation learning using an
end-to-end training framework. We rigorously address the trade-off between
obfuscation and utility. Both are quantified through the logarithmic loss, a
measure also recognized as self-information loss. This exploration deepens the
interplay between information-theoretic privacy and representation learning,
offering substantive insights into data protection mechanisms for both
discriminative and generative models. Importantly, we apply our model to
state-of-the-art face recognition systems. The model demonstrates adaptability
across diverse inputs, from raw facial images to both derived or refined
embeddings, and is competent in tasks such as classification, reconstruction,
and generation.
- Abstract(参考訳): 本研究では、情報理論プライバシ・ファンネル(PF)モデルを用いて、エンドツーエンドのトレーニングフレームワークを用いて、プライバシ保護表現学習手法を開発する。
我々は難読化と実用性の間のトレードオフに厳格に対処する。
どちらも対数損失によって定量化され、自己情報損失と認識される。
この調査は、情報理論的なプライバシと表現学習の相互作用を深め、識別モデルと生成モデルの両方のデータ保護メカニズムに関する予備的な洞察を提供する。
重要なことは、我々のモデルを最先端の顔認識システムに適用することである。
このモデルは、生の顔画像から派生または洗練された埋め込みまで、様々な入力にまたがる適応性を示し、分類、再構築、生成といったタスクに適している。
関連論文リスト
- Towards Reliable Verification of Unauthorized Data Usage in Personalized Text-to-Image Diffusion Models [23.09033991200197]
新しいパーソナライズ技術は、特定のテーマやスタイルのイメージを作成するために、事前訓練されたベースモデルをカスタマイズするために提案されている。
このような軽量なソリューションは、パーソナライズされたモデルが不正なデータからトレーニングされているかどうかに関して、新たな懸念を生じさせる。
我々は、ブラックボックスパーソナライズされたテキスト・ツー・イメージ拡散モデルにおいて、不正なデータ使用を積極的に追跡する新しい手法であるSIRENを紹介する。
論文 参考訳(メタデータ) (2024-10-14T12:29:23Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Extracting Training Data from Document-Based VQA Models [67.1470112451617]
VLM(Vision-Language Models)は、文書ベースの視覚質問回答において顕著な進歩を遂げている(つまり、画像として提供される入力文書の内容に関する問い合わせに応答する)。
これらのモデルでは、関連する視覚情報が削除された場合でも、トレーニングサンプルに対する応答を記憶し、それらをリグルジタイズすることができる。
これには、トレーニングセットで繰り返し繰り返されるパーソナライズ可能な情報が含まれており、これらのモデルが機密情報を漏らし、したがってプライバシーリスクを引き起こす可能性があることを示している。
論文 参考訳(メタデータ) (2024-07-11T17:44:41Z) - Deep Privacy Funnel Model: From a Discriminative to a Generative Approach with an Application to Face Recognition [20.562833106966405]
顔認識の領域に情報理論プライバシ・ファンネル(PF)モデルを適用する。
エンド・ツー・エンドのトレーニング・フレームワーク内にプライバシ保護表現学習のための新しい手法を開発する。
論文 参考訳(メタデータ) (2024-04-03T12:50:45Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Masked Modeling for Self-supervised Representation Learning on Vision
and Beyond [69.64364187449773]
仮面モデリングは、トレーニング中に比例的にマスキングされる元のデータの一部を予測する、独特なアプローチとして現れてきた。
マスクモデリングにおけるテクニックの詳細については,多様なマスキング戦略,ターゲット回復,ネットワークアーキテクチャなどについて詳述する。
我々は、現在の手法の限界について議論し、マスクモデリング研究を進めるためのいくつかの道のりを指摘した。
論文 参考訳(メタデータ) (2023-12-31T12:03:21Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Training face verification models from generated face identity data [2.557825816851682]
我々は、顔認識に適用されるように、データセットのプライバシー保護を高めるアプローチを検討する。
我々は、StyleGAN生成逆数ネットワーク上に構築し、2つの異なるサブコードを組み合わせた潜時符号でフィードする。
少量のプライベートデータを追加することで、モデルの性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-08-02T12:00:01Z) - Privacy-Preserving Eye-tracking Using Deep Learning [1.5484595752241124]
本研究では,個々の顔の画像に基づいて訓練されたディープ・ネットワーク・モデルの場合に着目した。
本研究では,トレーニングデータの整合性を合理的な信頼性で保持することを示す。
論文 参考訳(メタデータ) (2021-06-17T15:58:01Z) - Why Should I Trust a Model is Private? Using Shifts in Model Explanation
for Evaluating Privacy-Preserving Emotion Recognition Model [35.016050900061]
本稿では,モデルの有効性を評価するために解釈可能な手法を用いることに焦点をあてる。
プライバシーを守るための一般的な方法が、プライバシー保護の人間の認識とどのように一致しないかを示します。
評価者の傾きを評価し、特定のタスクのモデルを選択するためのクラウドソーシング実験を行います。
論文 参考訳(メタデータ) (2021-04-18T09:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。