論文の概要: RigAnyFace: Scaling Neural Facial Mesh Auto-Rigging with Unlabeled Data
- arxiv url: http://arxiv.org/abs/2511.18601v1
- Date: Sun, 23 Nov 2025 19:55:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.920956
- Title: RigAnyFace: Scaling Neural Facial Mesh Auto-Rigging with Unlabeled Data
- Title(参考訳): RigAnyFace: ラベルなしデータによるニューラルネットワークの自動リギングのスケーリング
- Authors: Wenchao Ma, Dario Kneubuehler, Maurice Chu, Ian Sachs, Haomiao Jiang, Sharon Xiaolei Huang,
- Abstract要約: RigAnyFace(RAF)は、さまざまなトポロジの顔メッシュのためのスケーラブルなニューラルネットワーク自動リグフレームワークである。
RAFは中立的な顔メッシュを業界標準のFACSのポーズに変形させ、表現力のあるブレンドシェープリグを形成する。
RAFは、アーティストが制作した資産だけでなく、現場のサンプルにも様々なトポロジを網羅し、精度と一般化性において過去の成果よりも優れています。
- 参考スコア(独自算出の注目度): 3.9098461039965144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present RigAnyFace (RAF), a scalable neural auto-rigging framework for facial meshes of diverse topologies, including those with multiple disconnected components. RAF deforms a static neutral facial mesh into industry-standard FACS poses to form an expressive blendshape rig. Deformations are predicted by a triangulation-agnostic surface learning network augmented with our tailored architecture design to condition on FACS parameters and efficiently process disconnected components. For training, we curated a dataset of facial meshes, with a subset meticulously rigged by professional artists to serve as accurate 3D ground truth for deformation supervision. Due to the high cost of manual rigging, this subset is limited in size, constraining the generalization ability of models trained exclusively on it. To address this, we design a 2D supervision strategy for unlabeled neutral meshes without rigs. This strategy increases data diversity and allows for scaled training, thereby enhancing the generalization ability of models trained on this augmented data. Extensive experiments demonstrate that RAF is able to rig meshes of diverse topologies on not only our artist-crafted assets but also in-the-wild samples, outperforming previous works in accuracy and generalizability. Moreover, our method advances beyond prior work by supporting multiple disconnected components, such as eyeballs, for more detailed expression animation. Project page: https://wenchao-m.github.io/RigAnyFace.github.io
- Abstract(参考訳): 本稿では,多種多様なトポロジを持つ顔メッシュのためのスケーラブルなニューラルネットワーク自動リグフレームワークであるRigAnyFace(RAF)を紹介する。
RAFは静的な中性顔メッシュを業界標準のFACSポーズに変形させ、表現力のあるブレンドシェープリグを形成する。
変形は, FACSパラメータと非連結成分の効率よく処理するために, アーキテクチャ設計を改良した三角形非依存型表面学習ネットワークによって予測される。
トレーニングのために、私たちは顔メッシュのデータセットをキュレートしました。
手動リグのコストが高いため、このサブセットはサイズが限られており、専用に訓練されたモデルの一般化能力を制限している。
これを解決するために、リグを使わずに、ラベルのない中立メッシュの2次元監視戦略を設計する。
この戦略はデータの多様性を高め、スケールしたトレーニングを可能にし、この拡張データに基づいてトレーニングされたモデルの一般化能力を高める。
大規模な実験により、RAFは、アーティストが制作した資産だけでなく、フィンランドのサンプルにも様々なトポロジのメッシュを適用できることが証明された。
さらに、より詳細な表現アニメーションのために、眼球のような複数の切断されたコンポーネントをサポートすることで、以前の作業を超えて前進する。
プロジェクトページ:https://wenchao-m.github.io/RigAnyFace.github.io
関連論文リスト
- Digi2Real: Bridging the Realism Gap in Synthetic Data Face Recognition via Foundation Models [4.910937238451485]
本稿では,合成顔画像のリアリズム向上を目的とした,リアリズム伝達のための新しいフレームワークを提案する。
グラフィクスパイプラインの制御可能な側面とリアリズム強化技術を統合することで、我々は大量のリアルなバリエーションを生成する。
論文 参考訳(メタデータ) (2024-11-04T15:42:22Z) - DICE: End-to-end Deformation Capture of Hand-Face Interactions from a Single Image [98.29284902879652]
DICEは1枚の画像から変形認識による手と顔のインタラクションを再現する最初のエンドツーエンド手法である。
ローカルな変形場とグローバルなメッシュ位置の回帰を2つのネットワークブランチに切り離すことが特徴である。
標準的なベンチマークと、精度と物理的妥当性の点から見れば、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-06-26T00:08:29Z) - Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - Learning Skeletal Articulations with Neural Blend Shapes [57.879030623284216]
あらかじめ定義された骨格構造を有するエンベロープを用いて3次元文字を表現できるニューラルテクニックを開発している。
我々のフレームワークは、同じ調音構造を持つリグとスキンキャラクタを学習する。
関節領域の変形品質を向上させるニューラルブレンディング形状を提案します。
論文 参考訳(メタデータ) (2021-05-06T05:58:13Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Shape My Face: Registering 3D Face Scans by Surface-to-Surface
Translation [75.59415852802958]
Shape-My-Face (SMF) は、改良されたポイントクラウドエンコーダ、新しい視覚的注意機構、スキップ接続付きグラフ畳み込みデコーダ、特殊口モデルに基づく強力なエンコーダデコーダアーキテクチャである。
私たちのモデルは、トポロジカルにサウンドメッシュを最小限の監視で提供し、より高速なトレーニング時間を提供し、訓練可能なパラメータを桁違いに減らし、ノイズに強く、以前は見られないデータセットに一般化することができます。
論文 参考訳(メタデータ) (2020-12-16T20:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。