論文の概要: The UU-Net: Reversible Face De-Identification for Visual Surveillance
Video Footage
- arxiv url: http://arxiv.org/abs/2007.04316v1
- Date: Wed, 8 Jul 2020 16:34:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:23:13.993467
- Title: The UU-Net: Reversible Face De-Identification for Visual Surveillance
Video Footage
- Title(参考訳): UU-Net:ビジュアル監視ビデオフットプリントの顔認識
- Authors: Hugo Proen\c{c}a
- Abstract要約: 低解像度映像データに対する可逆顔識別法を提案する。
我々のソリューションは、データ保護規則を満たすリアルな非識別ストリームを生成することができる。
提案手法はランドマークフリーであり、条件付き生成対向ネットワークを用いて合成顔を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a reversible face de-identification method for low resolution
video data, where landmark-based techniques cannot be reliably used. Our
solution is able to generate a photo realistic de-identified stream that meets
the data protection regulations and can be publicly released under minimal
privacy constraints. Notably, such stream encapsulates all the information
required to later reconstruct the original scene, which is useful for
scenarios, such as crime investigation, where the identification of the
subjects is of most importance. We describe a learning process that jointly
optimizes two main components: 1) a public module, that receives the raw data
and generates the de-identified stream, where the ID information is surrogated
in a photo-realistic and seamless way; and 2) a private module, designed for
legal/security authorities, that analyses the public stream and reconstructs
the original scene, disclosing the actual IDs of all the subjects in the scene.
The proposed solution is landmarks-free and uses a conditional generative
adversarial network to generate synthetic faces that preserve pose, lighting,
background information and even facial expressions. Also, we enable full
control over the set of soft facial attributes that should be preserved between
the raw and de-identified data, which broads the range of applications for this
solution. Our experiments were conducted in three different visual surveillance
datasets (BIODI, MARS and P-DESTRE) and showed highly encouraging results. The
source code is available at https://github.com/hugomcp/uu-net.
- Abstract(参考訳): そこで本稿では,ランドマークベース技術が使用できない低解像度映像データに対する可逆的顔識別法を提案する。
我々のソリューションは、データ保護規則を満たし、最小限のプライバシー制約の下で公開可能な、現実的な非識別ストリームを生成することができる。
特に、これらのストリームは、後に元のシーンを再構築するのに必要な全ての情報をカプセル化しており、犯罪捜査など、被写体の識別が最も重要なシナリオに有用である。
2つの主要コンポーネントを共同で最適化する学習プロセスについて述べる。
1) 原データを受信し、ID情報が写実的でシームレスな方法で代理される非識別ストリームを生成する公開モジュール
2) 法・セキュリティ当局のために設計された私的なモジュールで,公開ストリームを分析し,元のシーンを再構築し,現場のすべての被験者の実際のIDを開示する。
提案手法はランドマークフリーであり、条件付き生成対向ネットワークを用いて、ポーズ、照明、背景情報、さらには表情を保存した合成顔を生成する。
また、生データと非識別データの間で保存されるべきソフトな顔属性のセットを完全に制御できるようにし、このソリューションの応用範囲を広げる。
実験は3種類の視覚監視データセット(BIODI, MARS, P-DESTRE)を用いて行った。
ソースコードはhttps://github.com/hugomcp/uu-netで入手できる。
関連論文リスト
- Two Deep Learning Solutions for Automatic Blurring of Faces in Videos [0.8287206589886879]
本稿では,監視ビデオにおける顔ぼやけ問題に対処するための,ディープラーニングに基づく2つの選択肢を提案する。
まず、顔を検出するために訓練された古典的な物体検出装置で構成され、その後、ぼやけている。
第二に、Unetのようなセグメンテーションネットワークを訓練して、すべての顔がぼやけた入力画像のバージョンを出力する間接的アプローチである。
論文 参考訳(メタデータ) (2024-09-23T08:59:44Z) - AniFaceDiff: High-Fidelity Face Reenactment via Facial Parametric Conditioned Diffusion Models [33.39336530229545]
顔再現とは、ポーズと表情を、参照(運転)ビデオから静的な顔(ソース)画像に転送する過程を指す。
この領域における以前の研究は、顔を生成するために制御可能な深層生成モデルを訓練することで大きな進歩を遂げた。
本稿では,AniFaceDiffと呼ばれる安定拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T07:08:48Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - HFORD: High-Fidelity and Occlusion-Robust De-identification for Face
Privacy Protection [60.63915939982923]
顔の身元特定は、身元保護問題を解決するための実践的な方法である。
既存の顔の特定方法にはいくつかの問題がある。
これらの問題に対処するために,HFORD(High-Fidelity and Occlusion-Robust De-identification)法を提案する。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Disguise without Disruption: Utility-Preserving Face De-Identification [40.484745636190034]
本研究では,修正データの利用性を確保しつつ,顔画像をシームレスに識別する新しいアルゴリズムであるDisguiseを紹介する。
本手法は, 難読化と非可逆性を最大化するために, 変分機構を用いて生成した合成物を用いて, 描写されたアイデンティティを抽出し置換することを含む。
提案手法を複数のデータセットを用いて広範に評価し,様々な下流タスクにおける従来の手法と比較して,高い非識別率と一貫性を示す。
論文 参考訳(メタデータ) (2023-03-23T13:50:46Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Semantic-aware One-shot Face Re-enactment with Dense Correspondence
Estimation [100.60938767993088]
ワンショットの顔の再現は、ソースと駆動する顔の同一性ミスマッチのため、難しい作業である。
本稿では,3次元形態素モデル(3DMM)を明示的な顔のセマンティックな分解とアイデンティティの絡み合いに利用することを提案する。
論文 参考訳(メタデータ) (2022-11-23T03:02:34Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - A Systematical Solution for Face De-identification [6.244117712209321]
異なるタスクにおいて、人々は顔の特定(De-ID)に様々な要件を持つ
本稿では,これらのDe-ID操作に適合する系統的解を提案する。
本手法は,様々な方法で顔データを柔軟に識別し,画像の画質が向上する。
論文 参考訳(メタデータ) (2021-07-19T02:02:51Z) - Realistic Face Reenactment via Self-Supervised Disentangling of Identity
and Pose [23.211318473026243]
本研究では,大量の未収録映像を自然に再現する自己教師型ハイブリッドモデル(DAE-GAN)を提案する。
提案手法は,2つのデフォーミングオートエンコーダと条件生成の最新の進歩を組み合わせたものである。
実験の結果,再現された画像の良好な品質と,同一性間での顔の動きの伝達の柔軟性が示された。
論文 参考訳(メタデータ) (2020-03-29T06:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。