論文の概要: CHARM: Control-point-based 3D Anime Hairstyle Auto-Regressive Modeling
- arxiv url: http://arxiv.org/abs/2509.21114v1
- Date: Thu, 25 Sep 2025 13:00:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.916524
- Title: CHARM: Control-point-based 3D Anime Hairstyle Auto-Regressive Modeling
- Title(参考訳): CHARM:制御点に基づく3Dアニメスタイルの自動回帰モデリング
- Authors: Yuze He, Yanning Zhou, Wang Zhao, Jingwen Ye, Yushi Bai, Kaiwen Xiao, Yong-Jin Liu, Zhongqian Sun, Wei Yang,
- Abstract要約: アニメヘアスタイルモデリングのための新しいパラメトリック表現および生成フレームワークであるCHARMを提案する。
CHARMはコンパクトで可逆な制御ポイントベースのパラメータ化を導入し、制御ポイントのシーケンスは各ヘアカードを表す。
この表現に基づいて、CHARMは自動回帰生成フレームワークを導入し、入力画像や点雲からアニメのヘアスタイルを効果的に生成する。
- 参考スコア(独自算出の注目度): 43.54249989719103
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present CHARM, a novel parametric representation and generative framework for anime hairstyle modeling. While traditional hair modeling methods focus on realistic hair using strand-based or volumetric representations, anime hairstyle exhibits highly stylized, piecewise-structured geometry that challenges existing techniques. Existing works often rely on dense mesh modeling or hand-crafted spline curves, making them inefficient for editing and unsuitable for scalable learning. CHARM introduces a compact, invertible control-point-based parameterization, where a sequence of control points represents each hair card, and each point is encoded with only five geometric parameters. This efficient and accurate representation supports both artist-friendly design and learning-based generation. Built upon this representation, CHARM introduces an autoregressive generative framework that effectively generates anime hairstyles from input images or point clouds. By interpreting anime hairstyles as a sequential "hair language", our autoregressive transformer captures both local geometry and global hairstyle topology, resulting in high-fidelity anime hairstyle creation. To facilitate both training and evaluation of anime hairstyle generation, we construct AnimeHair, a large-scale dataset of 37K high-quality anime hairstyles with separated hair cards and processed mesh data. Extensive experiments demonstrate state-of-the-art performance of CHARM in both reconstruction accuracy and generation quality, offering an expressive and scalable solution for anime hairstyle modeling. Project page: https://hyzcluster.github.io/charm/
- Abstract(参考訳): アニメヘアスタイルモデリングのための新しいパラメトリック表現および生成フレームワークであるCHARMを提案する。
伝統的なヘアモデリング手法は、ストランドベースまたはボリューム表現を用いた現実的なヘアスタイルに焦点をあてるが、アニメのヘアスタイルは、既存の技術に挑戦する高度にスタイル化され、断片的に構造化された形状を示す。
既存の作品は、しばしば高密度メッシュモデリングや手作りスプライン曲線に依存しており、編集には効率が悪く、スケーラブルな学習には適さない。
CHARMはコンパクトで可逆な制御ポイントベースのパラメータ化を導入し、制御ポイントのシーケンスは各ヘアカードを表し、各ポイントは5つのパラメータで符号化される。
この効率的で正確な表現は、アーティストフレンドリーなデザインと学習ベースの生成の両方をサポートする。
この表現に基づいて、CHARMは自動回帰生成フレームワークを導入し、入力画像や点雲からアニメのヘアスタイルを効果的に生成する。
アニメのヘアスタイルを連続した「ヘアランゲージ」と解釈することで、我々の自己回帰トランスフォーマーは、局所幾何学とグローバルヘアスタイルトポロジーの両方をキャプチャし、高忠実なアニメのヘアスタイルを作成する。
アニメヘアスタイル生成のトレーニングと評価を容易にするため,37Kの高品質アニメヘアスタイルの大規模データセットであるAnimeHairを構築した。
大規模な実験では、再構成精度と生成品質の両方においてCHARMの最先端性能を実証し、アニメヘアスタイルモデリングのための表現的かつスケーラブルなソリューションを提供する。
プロジェクトページ: https://hyzcluster.github.io/charm/
関連論文リスト
- Im2Haircut: Single-view Strand-based Hair Reconstruction for Human Avatars [60.99229760565975]
本研究では,グローバルヘアと局所最適化を併用した1枚の写真から3次元毛髪を復元する手法を提案する。
我々はこれを利用して1つ以上の画像からヘアスタイルを生成するガウススティングに基づく再構築手法を開発した。
論文 参考訳(メタデータ) (2025-09-01T13:38:08Z) - DiffLocks: Generating 3D Hair from a Single Image using Diffusion Models [53.08138861924767]
DiffLocksは,単一画像から直接,多様なヘアスタイルの再構築を可能にする新しいフレームワークである。
まず,40Kのヘアスタイルを含む最大合成ヘアデータセットの作成を自動化することで,3Dヘアデータの欠如に対処する。
予め訓練した画像バックボーンを用いることで,合成データのみを訓練しながら,画像の幅内への一般化を行う。
論文 参考訳(メタデータ) (2025-05-09T16:16:42Z) - TANGLED: Generating 3D Hair Strands from Images with Arbitrary Styles and Viewpoints [38.95048174663582]
既存のテキストや画像誘導生成手法は、多様なスタイルの豊かさと複雑さに対処できない。
本稿では,3次元ヘアストランド生成の新しいアプローチであるTANGLEDについて述べる。
論文 参考訳(メタデータ) (2025-02-10T12:26:02Z) - Perm: A Parametric Representation for Multi-Style 3D Hair Modeling [22.790597419351528]
Permは、さまざまな毛髪関連の応用を促進するために設計された人間の3D毛髪のパラメトリック表現である。
ヘアテクスチャを低周波・高周波ヘア構造に適合・分解するために,我々のストランド表現を活用している。
論文 参考訳(メタデータ) (2024-07-28T10:05:11Z) - HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - Text-Guided Generation and Editing of Compositional 3D Avatars [59.584042376006316]
私たちのゴールは、テキスト記述だけで髪とアクセサリーを備えたリアルな3D顔アバターを作ることです。
既存の方法はリアリズムを欠いているか、非現実的な形状を作り出すか、編集をサポートしていないかのいずれかである。
論文 参考訳(メタデータ) (2023-09-13T17:59:56Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。