論文の概要: Realistic Full-Body Anonymization with Surface-Guided GANs
- arxiv url: http://arxiv.org/abs/2201.02193v2
- Date: Thu, 1 Jun 2023 09:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 02:12:04.021197
- Title: Realistic Full-Body Anonymization with Surface-Guided GANs
- Title(参考訳): 表面誘導ganを用いた実物匿名化
- Authors: H{\aa}kon Hukkel{\aa}s, Morten Smebye, Rudolf Mester, Frank Lindseth
- Abstract要約: In-the-wild画像のためのリアルな人間を生成する新しい匿名化手法を提案する。
我々の設計の鍵となる部分は、画像と正準3次元表面との間の高密度画素対面対応により、対向ネットを誘導することである。
表面誘導は画像品質とサンプルの多様性を著しく改善し、非常に実用的なジェネレータが得られることを示した。
- 参考スコア(独自算出の注目度): 7.37907896341367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work on image anonymization has shown that generative adversarial
networks (GANs) can generate near-photorealistic faces to anonymize
individuals. However, scaling up these networks to the entire human body has
remained a challenging and yet unsolved task. We propose a new anonymization
method that generates realistic humans for in-the-wild images. A key part of
our design is to guide adversarial nets by dense pixel-to-surface
correspondences between an image and a canonical 3D surface. We introduce
Variational Surface-Adaptive Modulation (V-SAM) that embeds surface information
throughout the generator. Combining this with our novel discriminator surface
supervision loss, the generator can synthesize high quality humans with diverse
appearances in complex and varying scenes. We demonstrate that surface guidance
significantly improves image quality and diversity of samples, yielding a
highly practical generator. Finally, we show that our method preserves data
usability without infringing privacy when collecting image datasets for
training computer vision models. Source code and appendix is available at:
\href{https://github.com/hukkelas/full_body_anonymization}{github.com/hukkelas/full\_body\_anonymization}
- Abstract(参考訳): 画像匿名化に関する最近の研究は、生成的敵ネットワーク(gans)が個人を匿名化するためにほぼフォトリアリスティックな顔を生成することができることを示した。
しかし、これらのネットワークを人体全体に拡大することは、困難でありながら未解決の課題である。
In-the-wild画像のためのリアルな人間を生成する新しい匿名化手法を提案する。
我々の設計の鍵となるのは、画像と正準3次元表面との間の高密度画素対面対応による対向ネットの誘導である。
本稿では,ジェネレータ全体にサーフェス情報を埋め込む可変表面適応変調(V-SAM)を提案する。
これを新しい識別器表面監視損失と組み合わせることで、複雑な場面や様々な場面で様々な外観で高品質な人間を合成することができる。
表面指導は画像品質とサンプルの多様性を著しく改善し,実用性の高い生成装置となることを実証する。
最後に,コンピュータビジョンモデルのトレーニング用画像データセットの収集において,プライバシを侵害することなくデータのユーザビリティを保護できることを示す。
ソースコードと付録は以下の通りである。 \href{https://github.com/hukkelas/full_body_anonymization}{github.com/hukkelas/full\_body\_anonymization}
関連論文リスト
- Context-Aware Full Body Anonymization using Text-to-Image Diffusion Models [1.5088726951324294]
匿名化は、現実世界のデータセットにおける個人の賢明な情報を保護する上で重要な役割を担っている。
本稿では,Stable Diffusionを生成バックエンドとして利用する全身匿名化のためのワークフローを提案する。
提案手法は,画像品質,解像度,インセプションスコア(IS),Frechet Inception Distance(FID)に対して,最先端の匿名化パイプラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-11T06:04:30Z) - Single Image, Any Face: Generalisable 3D Face Generation [59.9369171926757]
我々は,制約のない単一画像入力を伴う3次元顔を生成する新しいモデルGen3D-Faceを提案する。
私たちの知る限りでは、これは1枚の画像からフォトリアリスティックな3D顔アバターを作るための最初の試みであり、ベンチマークである。
論文 参考訳(メタデータ) (2024-09-25T14:56:37Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - SARGAN: Spatial Attention-based Residuals for Facial Expression
Manipulation [1.7056768055368383]
本稿では,3つの視点から制限に対処するSARGANという新しい手法を提案する。
我々は対称エンコーダ・デコーダネットワークを利用して顔の特徴に複数スケールで対応した。
提案手法は最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-30T08:15:18Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - Multiface: A Dataset for Neural Face Rendering [108.44505415073579]
本研究では,新しいマルチビュー,高解像度のヒューマン・フェイス・データセットであるMultifaceを提案する。
顔のパフォーマンスの高解像度同期映像をキャプチャする大規模なマルチカメラ装置であるMugsyを紹介する。
Multifaceの目的は、学術コミュニティにおける高品質データへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることである。
論文 参考訳(メタデータ) (2022-07-22T17:55:39Z) - Face Sketch Synthesis via Semantic-Driven Generative Adversarial Network [10.226808267718523]
本稿では,グローバルな構造レベルのインジェクションと局所的なクラスレベルの知識再重み付けを組み込んだセマンティック・ドリブン・ジェネレータ・ネットワーク(SDGAN)を提案する。
具体的には、入力された顔写真に対して顔の塩分濃度検出を行い、全体的な顔のテクスチャ構造を提供する。
さらに,SDGANのジェネレータにグローバルな構造的スタイルの注入を強制する前に,顔解析のレイアウトを意味的空間として活用する。
論文 参考訳(メタデータ) (2021-06-29T07:03:56Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - A 3D GAN for Improved Large-pose Facial Recognition [3.791440300377753]
深層畳み込みニューラルネットワークを用いた顔認識は、顔画像の大きなデータセットの可用性に依存している。
近年の研究では、アイデンティティからポーズを離す方法が不十分であることが示されている。
本研究では,GAN発生器に3次元モーフィラブルモデルを組み込むことにより,野生画像から非線形テクスチャモデルを学習する。
これにより、新しい合成IDの生成と、アイデンティティを損なうことなくポーズ、照明、表現の操作が可能になります。
論文 参考訳(メタデータ) (2020-12-18T22:41:15Z) - CONFIG: Controllable Neural Face Image Generation [10.443563719622645]
ConfigNetは、出力画像の個々の側面を意味のある方法で制御できる、ニューラルフェイスモデルである。
提案手法では,合成データを用いて遅延空間を従来のレンダリングパイプラインの入力に対応する要素に分解する。
論文 参考訳(メタデータ) (2020-05-06T09:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。