論文の概要: VolTeMorph: Realtime, Controllable and Generalisable Animation of
Volumetric Representations
- arxiv url: http://arxiv.org/abs/2208.00949v1
- Date: Mon, 1 Aug 2022 16:04:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:40:34.634568
- Title: VolTeMorph: Realtime, Controllable and Generalisable Animation of
Volumetric Representations
- Title(参考訳): VolTeMorph: ボリューム表現のリアルタイム・制御可能・一般化可能なアニメーション
- Authors: Stephan J. Garbin, Marek Kowalski, Virginia Estellers, Stanislaw
Szymanowicz, Shideh Rezaeifar, Jingjing Shen, Matthew Johnson, Julien
Valentin
- Abstract要約: 近年,シーン再構成や新しいビュー合成のためのボリューム表現の普及により,リアルタイムのボリュームコンテンツのアニメーション化に新たな焦点が当てられている。
本研究では,市販ソフトウェアで編集しやすく,説得力のあるボリューム変形手法を提案する。
提案手法の汎用性を実証するために, 物理に基づく物体変形と, アバターをブレンドサップを用いて制御するテレプレゼンスという2つのシナリオに適用した。
- 参考スコア(独自算出の注目度): 12.701504441489043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent increase in popularity of volumetric representations for scene
reconstruction and novel view synthesis has put renewed focus on animating
volumetric content at high visual quality and in real-time. While implicit
deformation methods based on learned functions can produce impressive results,
they are `black boxes' to artists and content creators, they require large
amounts of training data to generalise meaningfully, and they do not produce
realistic extrapolations outside the training data. In this work we solve these
issues by introducing a volume deformation method which is real-time, easy to
edit with off-the-shelf software and can extrapolate convincingly. To
demonstrate the versatility of our method, we apply it in two scenarios:
physics-based object deformation and telepresence where avatars are controlled
using blendshapes. We also perform thorough experiments showing that our method
compares favourably to both volumetric approaches combined with implicit
deformation and methods based on mesh deformation.
- Abstract(参考訳): 近年,シーン再構成や新しいビュー合成のための容積表現の普及により,高画質・リアルタイムの容積コンテンツのアニメーション化に新たな焦点が当てられている。
学習関数に基づく暗黙的変形は印象的な結果を生み出すが、それらはアーティストやコンテンツクリエーターにとって'ブラックボックス'であり、意味のある一般化のために大量のトレーニングデータを必要とし、トレーニングデータの外では現実的な外挿を生じない。
本研究では,市販ソフトウェアで編集しやすく,説得力のあるボリューム変形法を導入することで,これらの問題を解決する。
本手法の汎用性を示すために,物理に基づく物体変形と,ブレンド形状を用いてアバターが制御されるテレプレゼンスという2つのシナリオを適用した。
また,本手法が,暗黙的変形と組み合わせたボリューム的アプローチとメッシュ変形に基づく手法とを好適に比較できることを示す実験を行った。
関連論文リスト
- EfficientTrain++: Generalized Curriculum Learning for Efficient Visual Backbone Training [79.96741042766524]
訓練カリキュラムをソフトセレクション機能として再構築する。
自然画像の内容の露光は,データ拡張の強度によって容易に達成できることを示す。
結果のメソッドであるEfficientTrain++は単純で汎用的だが驚くほど効果的である。
論文 参考訳(メタデータ) (2024-05-14T17:00:43Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Dynamic Point Fields [30.029872787758705]
本稿では,明示的な点ベースグラフィックスの表現的利点と暗黙的な変形ネットワークを組み合わせた動的点場モデルを提案する。
我々は,その表現力,学習効率,および配布外小説のポーズに対する堅牢性の観点から,我々の動的点場フレームワークの利点を示す。
論文 参考訳(メタデータ) (2023-04-05T17:52:37Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - SoftGym: Benchmarking Deep Reinforcement Learning for Deformable Object
Manipulation [15.477950393687836]
我々は、変形可能なオブジェクトを操作するためのオープンソースのシミュレーションベンチマークであるSoftGymを紹介する。
我々はこれらの課題に対して様々なアルゴリズムを評価し、強化学習アルゴリズムの課題を強調した。
論文 参考訳(メタデータ) (2020-11-14T03:46:59Z) - NiLBS: Neural Inverse Linear Blend Skinning [59.22647012489496]
本稿では, 従来のスキン加工技術を用いて, ポーズによってパラメータ化されたニューラルネットワークを用いて変形を反転させる手法を提案する。
これらの変形を逆転する能力は、例えば距離関数、符号付き距離関数、占有率)の値を静止ポーズで事前計算し、文字が変形したときに効率的にクエリすることができる。
論文 参考訳(メタデータ) (2020-04-06T20:46:37Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。