論文の概要: A Robust Interactive Facial Animation Editing System
- arxiv url: http://arxiv.org/abs/2007.09367v1
- Date: Sat, 18 Jul 2020 08:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 06:10:15.481397
- Title: A Robust Interactive Facial Animation Editing System
- Title(参考訳): ロバストな対話型顔アニメーション編集システム
- Authors: Elo\"ise Berson, Catherine Soladi\'e, Vincent Barrielle, Nicolas
Stoiber
- Abstract要約: 直感的な制御パラメータの集合から顔のアニメーションを簡単に編集するための学習に基づく新しいアプローチを提案する。
我々は、制御パラメータを結合係数列にマップする分解能保存完全畳み込みニューラルネットワークを使用している。
提案システムは頑丈で,非専門ユーザからの粗大で誇張された編集を処理できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few years, the automatic generation of facial animation for
virtual characters has garnered interest among the animation research and
industry communities. Recent research contributions leverage machine-learning
approaches to enable impressive capabilities at generating plausible facial
animation from audio and/or video signals. However, these approaches do not
address the problem of animation edition, meaning the need for correcting an
unsatisfactory baseline animation or modifying the animation content itself. In
facial animation pipelines, the process of editing an existing animation is
just as important and time-consuming as producing a baseline. In this work, we
propose a new learning-based approach to easily edit a facial animation from a
set of intuitive control parameters. To cope with high-frequency components in
facial movements and preserve a temporal coherency in the animation, we use a
resolution-preserving fully convolutional neural network that maps control
parameters to blendshapes coefficients sequences. We stack an additional
resolution-preserving animation autoencoder after the regressor to ensure that
the system outputs natural-looking animation. The proposed system is robust and
can handle coarse, exaggerated edits from non-specialist users. It also retains
the high-frequency motion of the facial animation.
- Abstract(参考訳): 近年,仮想キャラクターのための顔アニメーションの自動生成は,アニメーション研究や業界コミュニティの間で注目を集めている。
近年の研究では、音声やビデオ信号から可愛らしい顔のアニメーションを生成するための機械学習アプローチを活用している。
しかし、これらのアプローチはアニメーション版の問題に対処しない。つまり、不十分なベースラインアニメーションの修正やアニメーションコンテンツ自体の修正が必要となる。
顔アニメーションパイプラインでは、既存のアニメーションを編集するプロセスはベースラインの作成と同じくらい重要で時間を要する。
本研究では,直感的な制御パラメータの集合から顔のアニメーションを簡単に編集する学習型アプローチを提案する。
顔の動きの高周波成分に対処し,アニメーションの時間的一貫性を保ちながら,制御パラメータをブレンドシェープ係数列にマップする完全畳み込みニューラルネットワークを用いる。
我々は,レグレッション後,さらに解像度保存型アニメーションオートエンコーダを積み重ねて,システムが自然なアニメーションを出力することを保証する。
提案システムは頑丈で,非専門ユーザからの粗大で誇張された編集を処理できる。
また、顔アニメーションの高周波動作も保持している。
関連論文リスト
- FlipSketch: Flipping Static Drawings to Text-Guided Sketch Animations [65.64014682930164]
スケッチアニメーションは、単純なフリップブックの落書きからプロのスタジオプロダクションまで、ビジュアルなストーリーテリングのための強力な媒体を提供する。
FlipSketchは、フリップブックアニメーションの魔法を復活させるシステムです。
論文 参考訳(メタデータ) (2024-11-16T14:53:03Z) - Audio2Rig: Artist-oriented deep learning tool for facial animation [0.0]
Audio2Rigは、以前アニメーションされたショーのシーケンスを利用して、オーディオファイルから顔と唇のシンクリグアニメーションを生成する新しいディープラーニングツールだ。
マヤに拠点を置き、調整なしにあらゆるプロダクション・リグから学び、高品質でスタイリッシュなアニメーションを生成する。
提案手法は優れた結果を示し,番組スタイルを尊重しながら細かなアニメーションの細部を生成する。
論文 参考訳(メタデータ) (2024-05-30T18:37:21Z) - AnimateZoo: Zero-shot Video Generation of Cross-Species Animation via Subject Alignment [64.02822911038848]
動物アニメーションを作成するため, ゼロショット拡散に基づくビデオジェネレータAnimateZooを提案する。
AnimateZooで使われる主要なテクニックは、2つのステップを含む被写体アライメントです。
我々のモデルは、正確な動き、一貫した外観、高忠実度フレームを特徴とする映像を生成することができる。
論文 参考訳(メタデータ) (2024-04-07T12:57:41Z) - Bring Your Own Character: A Holistic Solution for Automatic Facial
Animation Generation of Customized Characters [24.615066741391125]
仮想顔を自動的にアニメーションする総合的なソリューションを提案する。
深層学習モデルはまず、入力された顔画像から仮想人間の顔への表情の再ターゲティングを訓練した。
Unity 3Dを使った実用的なツールキットが開発され、最も人気のあるVRアプリケーションと互換性がある。
論文 参考訳(メタデータ) (2024-02-21T11:35:20Z) - AnimateZero: Video Diffusion Models are Zero-Shot Image Animators [63.938509879469024]
我々はAnimateZeroを提案し、事前訓練されたテキスト・ビデオ拡散モデル、すなわちAnimateDiffを提案する。
外観制御のために,テキスト・ツー・イメージ(T2I)生成から中間潜伏子とその特徴を借りる。
時間的制御では、元のT2Vモデルのグローバルな時間的注意を位置補正窓の注意に置き換える。
論文 参考訳(メタデータ) (2023-12-06T13:39:35Z) - MagicAnimate: Temporally Consistent Human Image Animation using
Diffusion Model [74.84435399451573]
本稿では、特定の動きシーケンスに従って、特定の参照アイデンティティのビデオを生成することを目的とした、人間の画像アニメーションタスクについて検討する。
既存のアニメーションは、通常、フレームウォーピング技術を用いて参照画像を目標運動に向けてアニメーションする。
MagicAnimateは,時間的一貫性の向上,参照画像の忠実な保存,アニメーションの忠実性向上を目的とした,拡散に基づくフレームワークである。
論文 参考訳(メタデータ) (2023-11-27T18:32:31Z) - AnimateAnything: Fine-Grained Open Domain Image Animation with Motion
Guidance [13.416296247896042]
本稿では,映像拡散モデルに先立って動きを利用するオープンドメイン画像アニメーション手法を提案する。
本手法では,移動領域の正確な制御と移動速度を実現するため,目標となる運動領域の誘導と運動強度の誘導を導入する。
オープンドメインデータセットを用いた厳密な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-21T03:47:54Z) - Audio-Driven Talking Face Generation with Diverse yet Realistic Facial
Animations [61.65012981435094]
DIRFAは、異なるが現実的な顔のアニメーションを同一の駆動音声から生成できる新しい方法である。
同一音声に対して妥当な顔のアニメーションの変動に対応するため,トランスフォーマーに基づく確率的マッピングネットワークを設計する。
DIRFAは現実的な顔のアニメーションを効果的に生成できることを示す。
論文 参考訳(メタデータ) (2023-04-18T12:36:15Z) - MeshTalk: 3D Face Animation from Speech using Cross-Modality
Disentanglement [142.9900055577252]
本研究では,顔全体の映像合成を高度に実現するための汎用的な音声駆動顔アニメーション手法を提案する。
このアプローチは、目のまばたきやまばたきなど、音声信号とは無関係な顔の一部のアニメーションを再現すると同時に、高精度な唇の動きを保証します。
論文 参考訳(メタデータ) (2021-04-16T17:05:40Z) - Going beyond Free Viewpoint: Creating Animatable Volumetric Video of
Human Performances [7.7824496657259665]
本稿では,人間の演奏の高品質な映像コンテンツ作成のためのエンドツーエンドパイプラインを提案する。
セマンティックエンリッチメントと幾何学的アニメーション能力は、3Dデータに時間的一貫性を確立することによって達成される。
ポーズ編集では、キャプチャしたデータを可能な限り活用し、キャプチャしたフレームをキネマティックに変形して所望のポーズに適合させる。
論文 参考訳(メタデータ) (2020-09-02T09:46:12Z) - Real-Time Cleaning and Refinement of Facial Animation Signals [0.0]
顔の動きの自然なダイナミクスを保存または復元するリアルタイムアニメーション精錬システムを提案する。
クリーンなアニメーションデータに対して,適切な顔のダイナミックスパターンを学習する,既製のリカレントニューラルネットワークアーキテクチャを活用する。
論文 参考訳(メタデータ) (2020-08-04T05:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。