論文の概要: Towards High-fidelity Head Blending with Chroma Keying for Industrial Applications
- arxiv url: http://arxiv.org/abs/2411.00652v1
- Date: Fri, 01 Nov 2024 15:14:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:48:46.884119
- Title: Towards High-fidelity Head Blending with Chroma Keying for Industrial Applications
- Title(参考訳): クロマキーを用いた高忠実ヘッドブレンドの産業応用に向けて
- Authors: Hah Min Lew, Sahng-Min Yoo, Hyunwoo Kang, Gyeong-Moon Park,
- Abstract要約: 本稿では,デジタルコンテンツ作成において,アクターの頭部をターゲット本体にシームレスに統合するための産業用ヘッドブレンディングパイプラインを提案する。
鍵となる課題は、頭部の形状と毛髪の構造の相違に起因し、不自然な境界と人工物が混ざり合うことにつながる。
前景ブレンディングからバックグラウンド統合を分離する新しいパイプラインであるCHANGERを提案する。
- 参考スコア(独自算出の注目度): 7.479901577089033
- License:
- Abstract: We introduce an industrial Head Blending pipeline for the task of seamlessly integrating an actor's head onto a target body in digital content creation. The key challenge stems from discrepancies in head shape and hair structure, which lead to unnatural boundaries and blending artifacts. Existing methods treat foreground and background as a single task, resulting in suboptimal blending quality. To address this problem, we propose CHANGER, a novel pipeline that decouples background integration from foreground blending. By utilizing chroma keying for artifact-free background generation and introducing Head shape and long Hair augmentation ($H^2$ augmentation) to simulate a wide range of head shapes and hair styles, CHANGER improves generalization on innumerable various real-world cases. Furthermore, our Foreground Predictive Attention Transformer (FPAT) module enhances foreground blending by predicting and focusing on key head and body regions. Quantitative and qualitative evaluations on benchmark datasets demonstrate that our CHANGER outperforms state-of-the-art methods, delivering high-fidelity, industrial-grade results.
- Abstract(参考訳): 本稿では,デジタルコンテンツ作成において,アクターの頭部をターゲット本体にシームレスに統合するための産業用ヘッドブレンディングパイプラインを提案する。
鍵となる課題は、頭部の形状と毛髪の構造の相違に起因し、不自然な境界と人工物が混ざり合うことにつながる。
既存の方法は、前景と背景を一つのタスクとして扱い、その結果、最適以下のブレンディングの品質をもたらす。
この問題に対処するために,前景ブレンディングからバックグラウンド統合を分離する新しいパイプラインであるCHANGERを提案する。
クロマキーリングを利用して、無品の背景生成を行い、ヘッド形状とロングヘア拡張(H^2$augmentation)を導入し、幅広い頭部形状とヘアスタイルをシミュレートすることにより、ChaANGERは無数の実世界のケースに対する一般化を改善する。
さらに,フォアグラウンド予測注意変換器(FPAT)モジュールは,キーヘッドとボディ領域の予測と集中により,フォアグラウンドブレンディングを強化する。
ベンチマークデータセットの定量的および定性的な評価は、CHANGERが最先端の手法より優れ、高忠実で工業レベルの結果をもたらすことを示している。
関連論文リスト
- Efficient Face Super-Resolution via Wavelet-based Feature Enhancement Network [27.902725520665133]
顔超解像は、低解像度の顔画像から高解像度の顔画像を再構成することを目的としている。
以前は、顔の構造的特徴を抽出するためにエンコーダ・デコーダ構造を用いていた。
本稿では,ウェーブレットに基づく特徴拡張ネットワークを提案する。このネットワークは,入力特徴を高周波数成分と低周波数成分に無作為に分解することで,特徴歪みを軽減する。
論文 参考訳(メタデータ) (2024-07-29T08:03:33Z) - Textured-GS: Gaussian Splatting with Spatially Defined Color and Opacity [7.861993966048637]
空間的に定義された色と不透明度の変化を取り入れたガウススプラッティングを描画する革新的な方法であるTextured-GSを紹介する。
実験の結果,Textured-GS はベースラインのMini-Splatting と標準の3DGS を視覚的忠実度で一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-07-13T00:45:37Z) - HR Human: Modeling Human Avatars with Triangular Mesh and High-Resolution Textures from Videos [52.23323966700072]
本研究では,モノクロ映像から高精細な物理材料テクスチャとメッシュを付加したアバターの取得のための枠組みを提案する。
本手法では,モノクロ映像からの情報を組み合わせて仮想多視点画像の合成を行う新しい情報融合方式を提案する。
実験により, 提案手法は, 高忠実度で従来の表現よりも優れており, この明示的な結果は共通三角形への展開をサポートすることが示された。
論文 参考訳(メタデータ) (2024-05-18T11:49:09Z) - MeGA: Hybrid Mesh-Gaussian Head Avatar for High-Fidelity Rendering and Head Editing [34.31657241047574]
より適切な表現で異なるヘッドコンポーネントをモデル化するハイブリッドメッシュ・ガウスヘッドアバター(MeGA)を提案する。
MeGAは、ヘッド全体の高忠実度レンダリングを生成し、自然に下流タスクをサポートする。
NeRSembleデータセットの実験は、我々の設計の有効性を実証している。
論文 参考訳(メタデータ) (2024-04-29T18:10:12Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - DPHMs: Diffusion Parametric Head Models for Depth-based Tracking [42.016598097736626]
拡散パラメトリックヘッドモデル(DPHM)を紹介する。
DPHMは、単分子深度配列からの堅牢な頭部再構成と追跡を可能にする生成モデルである。
本稿では,ボリュームヘッドの再構築と追跡を正規化するために,遅延拡散に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-12-02T08:34:22Z) - Indoor Scene Reconstruction with Fine-Grained Details Using Hybrid Representation and Normal Prior Enhancement [50.56517624931987]
多視点RGB画像からの室内シーンの再構成は、平坦領域とテクスチャレス領域の共存により困難である。
近年の手法では、予測された表面正規化によって支援されたニューラルラジアンス場を利用してシーン形状を復元している。
本研究は, 上記の制限に対処して, 高忠実度表面を細かな詳細で再構築することを目的とする。
論文 参考訳(メタデータ) (2023-09-14T12:05:29Z) - HS-Diffusion: Semantic-Mixing Diffusion for Head Swapping [150.06405071177048]
ヘッドスワップ(HS-Diffusion)のための意味混合拡散モデルを提案する。
ソース・ヘッドとソース・ボディのセマンティック・レイアウトをブレンドし、その後、セマンティック・レイアウト・ジェネレータによって遷移領域を塗り替える。
画像ベースのヘッドスワップベンチマークを構築し,2つの設計基準を設計する。
論文 参考訳(メタデータ) (2022-12-13T10:04:01Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - HiFaceGAN: Face Renovation via Collaborative Suppression and
Replenishment [63.333407973913374]
フェース・リノベーション(FR)は意味誘導型生成問題である。
HiFaceGANは、複数のネストされたCSRユニットを含む多段階フレームワークである。
合成画像と実顔画像の両方の実験により,HiFaceGANの優れた性能が確認された。
論文 参考訳(メタデータ) (2020-05-11T11:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。