論文の概要: HyPlaneHead: Rethinking Tri-plane-like Representations in Full-Head Image Synthesis
- arxiv url: http://arxiv.org/abs/2509.16748v1
- Date: Sat, 20 Sep 2025 17:17:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.956116
- Title: HyPlaneHead: Rethinking Tri-plane-like Representations in Full-Head Image Synthesis
- Title(参考訳): HyPlaneHead: フルヘッド画像合成における三面体のような表現の再考
- Authors: Heyuan Li, Kenkun Liu, Lingteng Qiu, Qi Zuo, Keru Zheng, Zilong Dong, Xiaoguang Han,
- Abstract要約: 頭部画像合成および他の3次元オブジェクト/シーンモデリングタスクにおいて、3次元認識型GANにおいて、トリプレーンのような表現が広く採用されている。
平面面と球面の両面の強みを結合した新しいハイブリッド平面(ショートプレーンのハイプレーン)表現を導入する。
本生成装置は,複数の特徴マップを別チャネルで生成する代わりに,単一チャネルの統一特徴マップを合成し,特徴の浸透を効果的に除去する。
- 参考スコア(独自算出の注目度): 26.32664952928754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tri-plane-like representations have been widely adopted in 3D-aware GANs for head image synthesis and other 3D object/scene modeling tasks due to their efficiency. However, querying features via Cartesian coordinate projection often leads to feature entanglement, which results in mirroring artifacts. A recent work, SphereHead, attempted to address this issue by introducing spherical tri-planes based on a spherical coordinate system. While it successfully mitigates feature entanglement, SphereHead suffers from uneven mapping between the square feature maps and the spherical planes, leading to inefficient feature map utilization during rendering and difficulties in generating fine image details. Moreover, both tri-plane and spherical tri-plane representations share a subtle yet persistent issue: feature penetration across convolutional channels can cause interference between planes, particularly when one plane dominates the others. These challenges collectively prevent tri-plane-based methods from reaching their full potential. In this paper, we systematically analyze these problems for the first time and propose innovative solutions to address them. Specifically, we introduce a novel hybrid-plane (hy-plane for short) representation that combines the strengths of both planar and spherical planes while avoiding their respective drawbacks. We further enhance the spherical plane by replacing the conventional theta-phi warping with a novel near-equal-area warping strategy, which maximizes the effective utilization of the square feature map. In addition, our generator synthesizes a single-channel unified feature map instead of multiple feature maps in separate channels, thereby effectively eliminating feature penetration. With a series of technical improvements, our hy-plane representation enables our method, HyPlaneHead, to achieve state-of-the-art performance in full-head image synthesis.
- Abstract(参考訳): 頭部画像合成と他の3次元オブジェクト/シーンモデリングタスクの効率性から、3次元認識型GANでは、トリプレーンのような表現が広く採用されている。
しかし、カルト座標プロジェクションによるクエリ機能は、しばしば機能の絡み合いを招き、結果として成果物のミラーリングにつながる。
最近の研究であるSphereHeadは球面座標系に基づく球面三面体を導入してこの問題に対処しようとした。
SphereHeadは、特徴の絡み合いを緩和することに成功したが、正方形特徴写像と球面の間の不均一なマッピングに悩まされ、レンダリング中の特徴写像の非効率な利用と、微細な画像の詳細生成の難しさを招いた。
さらに、三面体と球面三面体の両方の表現は微妙だが永続的な問題を共有している。
これらの課題は、三面体ベースの手法が完全な潜在能力に到達するのを防ぐ。
本稿では,これらの問題を初めて体系的に解析し,それに対応する革新的な解決策を提案する。
具体的には,平面面と球面の両面の強みを結合し,それぞれの欠点を回避した新しいハイブリッド平面(短い面のハイプレーン)表現を提案する。
我々は,従来のテータフィワープを,正方形特徴写像の有効利用を最大化する新しい近距離ワープ戦略に置き換えることで,球面をさらに強化する。
さらに,複数の特徴マップを個別に生成する代わりに,単一チャネルを統一した特徴マップを合成し,特徴の浸透を効果的に除去する。
一連の技術的改善により、我々のハイプレーン表現は、フルヘッド画像合成における最先端の性能を達成するために、我々の方法であるHyPlaneHeadを可能にする。
関連論文リスト
- You Need a Transition Plane: Bridging Continuous Panoramic 3D Reconstruction with Perspective Gaussian Splatting [57.44295803750027]
本稿では,連続的なパノラマ3次元シーンをガウススプラッティングで橋渡しするための新しいフレームワークTPGSを提案する。
具体的には、個々の立方体面内で3Dガウスを最適化し、縫合されたパノラマ空間でそれらを微調整する。
屋内、屋外、エゴセントリック、ローミングのベンチマークデータセットの実験は、我々のアプローチが既存の最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2025-04-12T03:42:50Z) - AirPlanes: Accurate Plane Estimation via 3D-Consistent Embeddings [26.845588648999417]
本研究では,3次元画像から平面面を推定する問題に対処する。
本稿では,平面へのクラスタリングにおける幾何を補完する多視点一貫した平面埋め込みを予測する手法を提案する。
我々は、ScanNetV2データセットの広範な評価を通じて、我々の新しい手法が既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2024-06-13T09:49:31Z) - SphereHead: Stable 3D Full-head Synthesis with Spherical Tri-plane Representation [16.991139234072225]
PanoHeadは、正面と後方の両方のビューの画像をフルヘッド合成するために、大規模なデータセットを使用することの可能性を証明している。
本研究では,人間の頭部の幾何学的特徴に適合する球面座標系における新しい三面体表現であるSphereHeadを提案する。
論文 参考訳(メタデータ) (2024-04-08T16:58:31Z) - ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - TriHuman : A Real-time and Controllable Tri-plane Representation for
Detailed Human Geometry and Appearance Synthesis [76.73338151115253]
TriHumanは、人間によって調整され、変形可能で、効率的な三面体表現である。
我々は、未変形の三面体テクスチャ空間に、地球規模のサンプルを厳格にワープする。
このような三面的特徴表現が骨格運動でどのように条件付けされ、動的外観や幾何学的変化を考慮に入れられるかを示す。
論文 参考訳(メタデータ) (2023-12-08T16:40:38Z) - Ground Plane Matters: Picking Up Ground Plane Prior in Monocular 3D
Object Detection [92.75961303269548]
先行する地平面は、モノクル3次元物体検出(M3OD)における非常に情報的な幾何学的手がかりである
本稿では,両問題を一度に解決するGPENetを提案する。
我々のGPENetは、他の手法よりも優れ、最先端のパフォーマンスを実現し、提案手法の有効性と優位性を示すことができる。
論文 参考訳(メタデータ) (2022-11-03T02:21:35Z) - PlaneDepth: Self-supervised Depth Estimation via Orthogonal Planes [41.517947010531074]
複数の前頭平行面に基づく深度推定は、自己教師付き単眼深度推定(MDE)において顕著な結果を示した
本研究では,垂直面と接地面を含む新しい平面ベースプレゼンテーションであるPlaneDepthを提案する。
本手法は, 自律走行において重要な, 教師なしの方法で地上面を抽出することができる。
論文 参考訳(メタデータ) (2022-10-04T13:51:59Z) - From Planes to Corners: Multi-Purpose Primitive Detection in Unorganized
3D Point Clouds [59.98665358527686]
直交平面の分割自由結合推定法を提案する。
このような統合されたシーン探索は、セマンティックプレーンの検出や局所的およびグローバルなスキャンアライメントといった、多目的のアプリケーションを可能にする。
本実験は,壁面検出から6次元トラッキングに至るまで,様々なシナリオにおいて,我々のアプローチの有効性を実証するものである。
論文 参考訳(メタデータ) (2020-01-21T06:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。