論文の概要、ライセンス

# (参考訳) physxnet: 服装者の学習クロスダイナミクスのためのカスタマイズ可能なアプローチ [全文訳有]

PhysXNet: A Customizable Approach for LearningCloth Dynamics on Dressed People ( http://arxiv.org/abs/2111.07195v1 )

ライセンス: CC BY 4.0
Jordi Sanchez-Riera, Albert Pumarola and Francesc Moreno-Noguer(参考訳) physxnetは,ヒトの3dスケルトン運動シーケンスから変形可能な衣服のダイナミックスを予測するための学習ベースの手法である。 提案手法は, 様々な衣服に適応し, トポロジを変えることができるが, 再訓練は不要である。 このようなシミュレーションは通常、手動の人間の専門知識を必要とする物理エンジンによって行われ、計算集約的な計算の対象となる。 対照的にphysxnetは、完全に微分可能なディープネットワークであり、推論によってミリ秒単位で密度の高い布のメッシュの形状を推定できるため、より大きなディープラーニングアーキテクチャのレイヤとして容易にデプロイすることができる。 この効率は、空間的衣服変位をエンコードした3次元uvマップに基づいて、我々が検討する衣服の特定のパラメータ化によって達成される。 この問題は、人間の体操空間(無装身メッシュの3次元UVマップで表される)と衣服変位UVマップとのマッピングとして定式化され、実測可能な変形を強制する判別器を用いた条件付きGANを用いて学習する。 我々は、50種類の人間の行動の下で変形をシミュレートする3つの衣服テンプレート、トップ、ボトム、ドレスを同時にトレーニングする。 それにもかかわらず、我々が検討するuvマップ表現は、多くの異なる布のトポロジをカプセル化することができ、テストでは、特別なトレーニングを行わなくても、衣料品をシミュレートすることができる。 PhysXNetは物理エンジンで計算されたものに非常に近い布の変形をもたらし、ディープラーニングパイプラインに効率的に組み込むための扉を開く。

We introduce PhysXNet, a learning-based approach to predict the dynamics of deformable clothes given 3D skeleton motion sequences of humans wearing these clothes. The proposed model is adaptable to a large variety of garments and changing topologies, without need of being retrained. Such simulations are typically carried out by physics engines that require manual human expertise and are subjectto computationally intensive computations. PhysXNet, by contrast, is a fully differentiable deep network that at inference is able to estimate the geometry of dense cloth meshes in a matter of milliseconds, and thus, can be readily deployed as a layer of a larger deep learning architecture. This efficiency is achieved thanks to the specific parameterization of the clothes we consider, based on 3D UV maps encoding spatial garment displacements. The problem is then formulated as a mapping between the human kinematics space (represented also by 3D UV maps of the undressed body mesh) into the clothes displacement UV maps, which we learn using a conditional GAN with a discriminator that enforces feasible deformations. We train simultaneously our model for three garment templates, tops, bottoms and dresses for which we simulate deformations under 50 different human actions. Nevertheless, the UV map representation we consider allows encapsulating many different cloth topologies, and at test we can simulate garments even if we did not specifically train for them. A thorough evaluation demonstrates that PhysXNet delivers cloth deformations very close to those computed with the physical engine, opening the door to be effectively integrated within deeplearning pipelines.
公開日: Sat, 13 Nov 2021 21:05:41 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 v o N 3 1 1 2 0 2 v o n 3 1 である。 0.54
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 5 9 1 7 0 1 v 5 9 1 7 0 0.42
. 1 1 1 2 : v i X r a . 1 1 1 2 : v i X r a 0.42
PhysXNet: A Customizable Approach for Learning PhysXNet: 学習のためのカスタマイズ可能なアプローチ 0.82
Cloth Dynamics on Dressed People 服を着た人々の布のダイナミックス 0.58
Jordi Sanchez-Riera, Albert Pumarola and Francesc Moreno-Noguer Jordi Sanchez-Riera,Albert Pumarola,Francesc Moreno-Noguer 0.39
Institut de Rob`otica i Inform`atica Industrial, CSIC-UPC Institut de Rob`otica i Inform`atica Industrial, CSIC-UPC 0.49
{jsanchez,apumarola,f moreno}@iri.upc.edu {jsanchez,apumarola,f moreno}@iri.upc.edu 0.42
08028, Barcelona, Spain 08028,スペイン,バルセロナ 0.87
Figure 1: PhysXNet enables predicting cloth dynamics from skeletal motion of the person. 図1: PhysXNetは、人の骨格運動から布のダイナミクスを予測することができる。 0.73
We parameterize clothes using generic UV maps that can encapsulate different types of garments. 異なる種類の衣服をカプセル化できる汎用UVマップを用いて衣服をパラメータ化する。 0.69
The UV maps on the left of the figure have the capacity to generate all the variety of clothes shown in the top. 図の左側のuvマップは、上部に表示されたあらゆる種類の衣服を生成できる能力を持っている。 0.76
Specific garments are picked and their dynamic is predicted using PhysXNet and used to dress the moving character. 特定の衣服が選択され、そのダイナミクスはPhysXNetを使って予測され、移動キャラクタの服装に使用される。 0.69
Abstract We introduce PhysXNet, a learning-based approach to predict the dynamics of deformable clothes given 3D skeleton motion sequences of humans wearing these clothes. 概要 physxnetは,ヒトの3dスケルトン運動シーケンスから変形可能な衣服のダイナミックスを予測するための学習ベースの手法である。 0.59
The proposed model is adaptable to a large variety of garments and changing topologies, without need of being retrained. 提案手法は, 様々な衣服に適応し, トポロジを変えることができるが, 再訓練は不要である。 0.69
Such simulations are typically carried out by physics engines that require manual human expertise and are subject to computationally intensive computations. このようなシミュレーションは通常、人手による専門知識を必要とし、計算集約的な計算を受ける物理エンジンによって実行される。 0.67
PhysXNet, by contrast, is a fully differentiable deep network that at inference is able to estimate the geometry of dense cloth meshes in a matter of milliseconds, and thus, can be readily deployed as a layer of a larger deep learning architecture. 対照的にphysxnetは、完全に微分可能なディープネットワークであり、推論によってミリ秒単位で密度の高い布のメッシュの形状を推定できるため、より大きなディープラーニングアーキテクチャのレイヤとして容易にデプロイすることができる。 0.70
This efficiency is achieved thanks to the specific parameterization of the clothes we consider, based on 3D UV maps encoding spatial garment displacements. この効率は、空間的衣服変位をエンコードした3次元uvマップに基づいて、我々が検討する衣服の特定のパラメータ化によって達成される。 0.64
The problem is then formulated as a mapping between the human kinematics space (represented also by 3D UV maps of the undressed body mesh) into the clothes displacement UV maps, which we learn using a conditional GAN with a discriminator that enforces feasible deformations. 問題は そして、人間の運動空間(無着のボディメッシュの3d uv マップで示される)と衣服の変位 uv マップのマッピングとして定式化され、条件付き gan と可視性変形を強制する判別器を用いて学習される。 0.64
We train simultaneously our model for three garment templates, tops, bottoms and dresses for which we simulate deformations under 50 different human actions. 我々は、50種類の人間の行動の下で変形をシミュレートする3つの衣服テンプレート、トップ、ボトム、ドレスを同時にトレーニングする。 0.75
Nevertheless, the UV map representation we consider allows encapsulating many different cloth topologies, and at test we can simulate garments even if we did not specifically train for them. それにもかかわらず、我々が検討するuvマップ表現は、多くの異なる布のトポロジをカプセル化することができ、テストでは、特別なトレーニングを行わなくても、衣料品をシミュレートすることができる。
訳抜け防止モード: それでも、私たちが考慮しているUVマップ表現は、多くの異なる布のトポロジーをカプセル化することができる。 テストでは 特別に訓練しても 衣服をシミュレートできます
0.63
A thorough evaluation demonstrates that PhysXNet delivers cloth deformations very close to those computed with the physical engine, opening the door to be effectively integrated within deep learning pipelines. PhysXNetは物理エンジンで計算されたものに非常に近い布の変形をもたらし、ディープラーニングパイプラインに効率的に組み込むための扉を開く。 0.63
Internet GarmentModelsPhysXNe tGarmentTemplates…DressTopsBottoms internet clothing modelsphysxnetgarmen ttemplates ...dresstopsbottoms 0.11
英語(論文から抽出)日本語訳スコア
1. Introduction High-fidelity animation of clothed humans is the key for a wide range of applications in e g AR/VR, 3D content production and virtual try-on. はじめに 衣服を被った人間の高忠実度アニメーションは、例えばAR/VR、3Dコンテンツ制作、バーチャルトライオンにおける幅広い応用の鍵となる。 0.49
One of the main challenges when generating these animations is to create realistic cloth deformations with plausible wrinkles, creases, pleats, and folds. これらのアニメーションを生成する際の大きな課題の1つは、可愛らしいしわ、クリーゼ、プリート、折りたたみのあるリアルな布の変形を作ることである。 0.50
Such simulations are typically carried out by physics engines that model clothes via meshes with neighboring vertices connected using spring-mass systems. このようなシミュレーションは通常、スプリング質量系で接続された隣接する頂点とメッシュを介して衣服をモデル化する物理エンジンによって行われる。 0.61
Unfortunately, these simulators need to be fine-tuned by a human expert and are subject to computationally intensive processes to calculate collisions between vertices. 残念ながら、これらのシミュレータは人間の専門家によって微調整され、頂点間の衝突を計算するために計算集約的なプロセスを受ける必要がある。 0.55
These two limitations prevent their deployment as a layer of a larger deep learning architecture. これら2つの制限は、より大きなディープラーニングアーキテクチャのレイヤとしてデプロイすることを妨げる。 0.55
With the advent of deep learning there have been a number of learning-based approaches that attempt to emulate the physical engines using differentiable networks [18, 10, 37, 24]. ディープラーニングの出現に伴い、異なるネットワーク(18, 10, 37, 24]を使用して物理エンジンをエミュレートする学習ベースのアプローチが数多く存在する。 0.72
These approaches, however, propose models that are focused on specific clothes, and need to be retrained to simulate novel garments. しかし、これらのアプローチは特定の衣服に焦点を当てたモデルを提案し、新しい衣服をシミュレートするために再訓練する必要がある。 0.66
Most recent approaches [24, 37, 16] build upon an MLP architecture conditioned on body pose, shape and garment style. 最新のアプローチ[24, 37, 16]は、ボディポーズ、形状、衣服スタイルを前提としたMLPアーキテクチャの上に構築されています。 0.62
While the style parameter allows certain control on cloth attributes (e g sleeve length, size and fit), the range of variation is still fairly reduced. スタイルパラメータは布の属性(例えば袖の長さ、サイズ、フィット)を一定に制御できるが、変化の範囲は依然としてかなり小さくなっている。 0.77
In this paper, we present PhysXNet, a method to predict cloth dynamics of dressed people that is adaptable to different clothing types, styles and topologies without need of being retrained. 本稿では,衣服の種類,スタイル,トポロジに適応可能な服装者の布の動態を,再訓練を必要とせずに予測するPhysXNetを提案する。 0.76
For this purpose we build upon a simple but powerful representation based UV maps encoding cloth displacements. この目的のために,布の変位を符号化した単純だが強力なUVマップを構築した。 0.62
These UV maps are carefully designed in order to simultaneously encapsulate many different cloth types (upper body, lower body and dresses) and cloth styles (e g from long-sleeve to sleeve-less T-shirts). これらのuvマップは、多くの異なる布型(上半身、下半身、ドレス)と布型(長袖から袖なしtシャツなど)を同時にカプセル化するために慎重に設計されている。 0.68
Given this representation, we then formulate the problem as a mapping between the human body kinematic space and the cloth deformation space. この表現が与えられると、問題を人体運動空間と布の変形空間のマッピングとして定式化する。 0.62
The input human kinematics are similarly represented as UV maps, in this case encoding body velocities and accelerations. 入力された人体運動学も同様にUVマップとして表され、この場合、身体速度と加速度を符号化する。 0.58
Therefore, the problem boils down to learning a mapping between two different UV maps, from the human to the clothing, which we do using a conditional GAN network. したがって、問題は、条件付きGANネットワークを用いて行う、人間から衣服までの2つの異なるUVマップ間のマッピングを学習することにある。 0.77
In order to train our system we build a synthetic dataset with the Blender physical engine, consisting of 50 skeletal actions and a human wearing three different garment templates: tops, bottoms and dresses. 私たちのシステムをトレーニングするために、50の骨格アクションと、トップ、ボトム、ドレスの3つの異なるテンプレートを身に着けた人間で構成されるBlender物理エンジンで合成データセットを構築しました。 0.67
The results show that PhysXNet is then able to predict very accurate cloth deformations for clothes seen at train, while being also adaptable to clothes with a other topologies with a simple UV mapping. その結果、PhysXNetは列車で見られる服の非常に正確な布の変形を予測できる一方で、単純なUVマッピングで他のトポロジを持つ服にも適応できることがわかった。 0.79
Our key contributions can be summarized as follows: 私たちの重要な貢献は次のようにまとめることができる。 0.54
- A model that is able to predict simultaneously defor- -デフォルを同時に予測できるモデル 0.69
mations on three garment templates. 3つの衣料テンプレートにマティオン。 0.62
- A garment template representation by means of UV maps that allows us to easily map different cloth topologies onto the these templates. -uvマップによる衣料テンプレート表現により、異なる布のトポロジをこれらのテンプレートに簡単にマップすることができます。 0.75
- A differentiable network that can be integrated into -差別化可能なネットワークで、統合できる 0.75
larger deep learning pipelines. より大きなディープラーニングパイプライン。 0.60
- A new dataset of physically plausible cloth deformations with 50 human actions and 3 garment templates: tops, bottoms, and dresses. -50人のアクションと3つの衣料テンプレート(トップス、ボトムス、ドレス)を備えた、物理的に妥当な布の変形の新しいデータセット。 0.58
2. Related Work Estimating the deformation of a piece of cloth when a human is striking a pose or performing an action is a very difficult task. 2.関連業務 人間がポーズをとったり、アクションを実行したりするときに布の変形を推定することは、非常に難しい作業です。 0.75
While estimating cloth deformation has been traditionally addressed by model-based approaches [23, 28, 22], recent deep learning techniques build upon data-driven methods. 従来の布の変形推定はモデルに基づくアプローチ[23, 28, 22]で行われているが,近年の深層学習技術はデータ駆動方式に基づいている。 0.73
These datasets, however, usually ignore cloth deformation physics, producing unrealistic renders. しかし、これらのデータセットは通常布の変形物理学を無視し、非現実的なレンダリングを生成する。 0.51
This problem is generally addressed by obtaining the data from registered scans or including cloth simulation engines into the data generation process. この問題は一般に、登録されたスキャンからのデータを取得するか、データ生成プロセスに布シミュレーションエンジンを含むことで解決される。
訳抜け防止モード: この問題は一般に 登録されたスキャンまたは布シミュレーションエンジンを含むデータ生成プロセスからデータを取得する。
0.83
Below, we briefly review different methods and datasets used to achieve realistic cloth and body reconstructions. 以下に、現実的な布地や身体の再構築に使用される様々な方法とデータセットについて概観する。 0.58
Synthetic Datasets. One of the main problems when generating a dataset is to obtain natural cloth deformations when a human is performing an action. 合成データセット。 データセットを生成する際の主な問題は、人間がアクションを実行しているときに自然な布の変形を得ることである。
訳抜け防止モード: 合成データセット。 データセットを生成する際の大きな問題の1つは 人間が行動を行う際に自然布変形を得る。
0.75
Scan based approaches [41, 11, 35] have the advantage that can capture every cloth detail without having to worry about cloth physical models, however, the main drawback is that they need of dedicated hardware and software to process all the data. スキャンベースのアプローチ [41, 11, 35] は、布の物理的なモデルを気にすることなく、すべての布の詳細をキャプチャできる利点があるが、主な欠点は、すべてのデータを処理するために専用のハードウェアとソフトウェアが必要であることである。
訳抜け防止モード: スキャンベースアプローチ [41, 11, 35 ] には,その利点がある。 布の物理的モデルを気にすることなく あらゆる細部を捉えることができます しかし 主な欠点は すべてのデータを処理するために 専用のハードウェアとソフトウェアが必要です
0.84
On the other side, synthetic based approaches [36, 26, 2] can be easily annotated and modified, but have the trouble of obtaining realistic cloth deformations. 一方, 合成的アプローチ [36, 26, 2] は, 容易に注釈や修正が可能であるが, 現実的な布の変形を得ることは困難である。 0.82
Cloth behaviour has to be tuned for every different 3D model and for each action requiring some professional expertise. 衣服の挙動は、異なる3Dモデルごとに調整され、それぞれのアクションには専門的な専門知識が必要である。 0.64
Recent cloth physical engines can achieve very natural cloth behaviors [15, 33, 34], even for complex meshes, which makes the synthetic simulation a good competitor for the scanned data. 近年の布の物理エンジンは, 複雑なメッシュであっても, 極めて自然な布の挙動 [15, 33, 34] を達成できるため, 走査されたデータに対して, 合成シミュレーションが優れた競合となる。 0.71
In our work, we generate a synthetic dataset with a parametric human 3D model [20] and use Blender [4] cloth engine as a cloth simulator. 本研究では,パラメトリック人体3dモデル [20] を用いた合成データセットを作成し,布シミュレータとしてblender [4]布製エンジンを用いた。 0.85
We create high quality cloth deformations for three garment templates over 50 motion sequences. 3種類の衣料テンプレートに対して,50以上の動作シーケンスで高品質な布変形を発生させる。 0.58
Data driven cloth deformations. データ駆動の布の変形。 0.66
Using the generated datasets either from scans or synthetic data, a big part of the research concentrate in achieve high detailed cloth deformations with tailored designed networks [19, 40, 10, 3, 18, 42], GANs [32, 14] or even more recently with implicit functions [6]. スキャンデータまたは合成データから生成されたデータセットを用いて、設計したネットワーク[19, 40, 10, 3, 18, 42]、GAN[32, 14]、あるいは最近になって暗黙の関数[6]を用いて、高い詳細な布の変形を実現することに集中している。 0.81
These methods assume each cloth deformation frame is independent from each other and just concentrate to obtain reliable reconstructions in still images. これらの方法では、各布の変形フレームが互いに独立していると仮定し、静止画像の信頼性の高い復元にのみ集中する。 0.59
Other methods go one step further and they try to infer the cloth deformation given a human pose and shape [13, 7, 25] obtaining very convincing results. 他の方法は一歩進めて、人間のポーズと形[13, 7, 25]が与えた布の変形を推測し、非常に説得力のある結果を得る。
訳抜け防止モード: 他の方法はさらに一歩進んで 人間のポーズによる布の変形を推測し そして[13, 7, 25 ]非常に説得力のある結果を得る。
0.79
In some other cases [37, 39, 31], その他のケース [37, 39, 31] では 0.81
英語(論文から抽出)日本語訳スコア
the cloth size and style also can be adjusted changing some statistical model weights, which allows more flexible simulations. 布のサイズとスタイルは 統計モデルに 変更を加えることもできます より柔軟なシミュレーションを可能にします 0.85
However, these methods are designed to deal with a single cloth at a time, and cloth dynamics generated by body movements are ignored. しかし、これらは一度に一つの布を扱うように設計されており、体の動きによって生じる布のダイナミクスは無視されている。 0.58
Physics based cloth deformations. 物理に基づく布の変形。 0.68
Above methods reason about cloth geometry to obtain plausible cloth deformations, but ignore the underlying physics of the cloth, which can help to achieve more natural deformations. 上述の手法は布の幾何学的理由から可塑性の布の変形を得るが、布の基礎となる物理学は無視し、より自然な変形を達成するのに役立つ。 0.55
This is especially true when the cloth deformations are affected by the motion of the body. これは特に、布の変形が体の動きによって影響を受ける場合に当てはまる。 0.76
Using the physics information obtained from a dataset, different networks [9, 38, 30] are able to simulate cloth wrinkles and deformations given a body pose and shape. データセットから得られた物理情報を用いて、異なるネットワーク[9,38,30]は、身体のポーズや形状が与えられた布のしわや変形をシミュレートすることができる。 0.76
Tailornet [24], extends this work and allows for a cloth style variations obtained from a base template model. Tailornet[24]は、この作業を拡張し、ベーステンプレートモデルから得られる布スタイルのバリエーションを可能にする。 0.78
While these methods are designed to be optimal on a T-shirt cloth, other cloth garments can be also estimated [16, 31]. これらの方法はTシャツに最適に設計されているのに対し、他の布地も[16,31]と推定できる。 0.81
All simulations are achieved using a dedicated network per cloth garment, which makes these methods not very flexible in case our cloth mesh is different that the one they used for train. すべてのシミュレーションは布1枚あたりの専用ネットワークを使って行われるので、布のメッシュが列車に使ったものと違う場合、これらの方法はあまり柔軟ではありません。 0.66
Moreover, a human model usually wears more than a single cloth garment, which means that these methods need to use different networks for the different garments and make them more difficult to integrate in a more larger pipeline. さらに、人間のモデルは、通常、1つの布地以上の服を着るので、異なる布地のために異なるネットワークを使用し、より大きなパイプラインに統合するのがより困難になる。 0.68
3. PhysXNet 3.1. 3. PhysXNet 3.1。 0.83
Problem Formulation Physics-based engines model clothes using spring-mass models. 問題定式化 物理エンジンはスプリング質量モデルを用いて衣服をモデル化する。 0.45
In an oversimplification of how a simulation is performed, we can understand that the force (and hence the displacement) that receives each of these spring-mass elements is estimated as a function of the the skeleton velocities and accelerations. シミュレーションの実施方法の単純化により、これらのバネ質量要素をそれぞれ受ける力(とそれによる変位)が骨格速度と加速度の関数として推定されることがわかる。 0.76
Building upon this intuitive idea we formulate the problem of predicting cloth dynamics as a regression from current and past body velocities and accelerations to cloth-to-body offset displacements. この直感的なアイデアに基づいて、現在および過去の身体速度と加速度から布間オフセット変位への回帰として布のダイナミクスを予測する問題を定式化する。 0.65
We encapsulate all these information by means of UV maps. これらの情報をUVマップでカプセル化する。 0.67
Concretely, assume we have a sequence of training frames, consisting of 3D body meshes and their corresponding cloth meshes. 具体的には、3Dボディメッシュとそれに対応する布メッシュで構成される一連のトレーニングフレームを仮定する。 0.69
For a specific frame k, we know the body and cloth UV maps that transform 3D points on the surface to 2D points on a planar domain. 特定のフレーム k に対して、表面上の3D点を平面領域上の2D点に変換する体と布のUV写像を知っています。 0.78
Let IB v,k and IB denote the body (B) UV maps of size W × H × 3 encoding the velocity (v) and accelerations (a) of the surface points. ib v,k と ib を、表面点の速度 (v) と加速度 (a) をコードする大きさ w × h × 3 の体 (b) uv マップとする。
訳抜け防止モード: IB v, k および IB を、速度 (v ) を符号化する大きさ W × H × 3 の体 (B ) UV 写像とする。 および、表面点の加速度(a)。
0.87
o,k be the cloth (C) UV map, also with size Similarly, let IC H × W × 3, encoding the offset (o) of the cloth surface points w.r.t. the body surface. o,k は布 (C) の UV 写像であり、サイズも同様に、IC H × W × 3 を体表面の布面点 w.r.t のオフセット (o) を符号化する。 0.77
We consider three different cloth templates, tops (T ), bottoms (Bt) and dresses (Dr), that is, C = {T, Bt, Dr}. 我々は3つの異なる布のテンプレート、トップ(t)、ボトム(bt)、ドレス(dr)、すなわちc = {t, bt, dr} を考える。 0.79
Given this notation, we can formulate our problem as that of learning the mapping M : X → Y, where X = この記法が与えられた場合、写像 M : X → Y を学ぶための問題として、X = を定式化することができる。 0.69
a,k v,k−2:k, IB a,k v,k−2:k,IB 0.43
{IB a,k−2:k} are the velocities and accelerations of the body surface points in the frames k − 2, k − 1 and k; and Y = IC o,k are the garment offsets at the current frame k. IB a,k −2:k} はフレーム k − 2, k − 1 および k における体表面点の速度と加速度であり、Y = IC o,k は現在のフレーム k における衣服オフセットである。 0.87
3.2. Model Fig. 2 shows an schematic of the PhysXNet pipeline. 3.2. モデル 第2図はphysxnetパイプラインの図式を示している。 0.64
Given a sequence of human body motions, the UV maps for body velocities and accelerations are computed in triplets and passed to the network in order to infer the UV maps of the cloth offsets for the current evaluated frame. 人体の動きの列が与えられた場合、現在の評価フレームの布オフセットのUVマップを推測するために、体速度と加速度のUVマップを三重項で計算し、ネットワークに渡される。 0.78
Then, the vertices of a given garment are projected to the correspondent UV garment map to obtain the offsets respect to the body surface point for each one of the vertices and hence, the final position for the garment cloth. そして、所定の衣服の頂点を対応するUV衣料地図に投影し、各頂点の体表面点に関するオフセットを求め、従って衣服の最終的な位置を求める。 0.53
The PhysXNet network is trained with two separate models where, a generator model produce samples of the UV garment maps, and a disciminator model tries to determine whether these samples are real or fake. PhysXNetネットワークは2つの別々のモデルで訓練されており、ジェネレータモデルがUV衣料地図のサンプルを作成し、ディシミネータモデルがこれらのサンプルが本物か偽物かを判断しようとする。 0.84
Then, it starts a Minimax strategy game [8] with the generator trying to ”fool” the discriminator, and the discriminator trying to ”catch” the generator wrong samples. 次に、ミニマックス戦略ゲーム[8]を開始し、ジェネレータが識別器を“フォーカス”しようとすると、ジェネレータが間違ったサンプルを“キャッチ”しようとする。
訳抜け防止モード: 次に、ジェネレータを試してミニマックス戦略ゲーム[8]を開始する。 to ” fool ” 判別器、および識別器が” ” をキャッチする” ジェネレータが間違ったサンプルをキャッチする。
0.65
Thus, the discriminator is trained in a supervised manner, where the input data from the generator should return D(G(X)) = 0 and the input real data should return D(Y) = 1. 従って、判別器は教師付きで訓練され、生成元からの入力データはD(G(X)) = 0を返し、入力実データはD(Y) = 1を返す。 0.69
The loss Ladv of the discriminator is given by a sigmoid cross entropy for the real and generated classes: 判別器の損失ladvは、実クラスおよび生成されたクラスに対するsgmoid cross entropyによって与えられる。 0.68
(1) o,k: Ladv = Ey[log(D(X))] + Ex[log(1 − D(G(X)))] The generator is trained to produce data output as similar as possible to the ground truth data Y. In the generator loss LG is used a regularization term, that ensures that generated garment UV maps ˆIC o,k stay close to the ground truth garment UV maps IC o,k|1 (2) LG = Ex[1 − log(D(G(X)))] + λL1 ∗ |IC where λL1 is a parameter that controls the weight of the regularization term. (1) o,k: Ladv = Ey[log(D(X))] + Ex[log(1 − D(G(X))] ジェネレータは、基底真理データ Y と可能な限り類似したデータ出力を生成するように訓練されている。 ジェネレータ損失のLGは、正規化項を用いて、生成された衣服UVマップ ^IC o,k が基底真理の衣服 IC o,k|1 (2) LG = Ex[1 − log(D(G(X)))] + λL1 ∗ |IC ここで λL1 は正規化項の重みを制御するパラメータである。 0.53
Note that we use L1 metric as we find that produces slightly better results and a more stable training than a L2 metric. 注意すべきは、l2メトリックよりもわずかに優れた結果とより安定したトレーニングをもたらすl1メトリックを使用することです。 0.62
Architecture. The generator G(X) is designed as an encoder-decoder network. 建築。 ジェネレータG(X)はエンコーダデコーダネットワークとして設計されている。 0.70
The encoder network receives the body velocities and accelerations UV maps for the current and previous two frames of the motion sequence. エンコーダネットワークは、動作シーケンスの現在及び以前の2フレームに対する体速度と加速度のUVマップを受信する。 0.88
Then the ”body” encoder is connected to a ”garment” decoder, one for each garment template, that returns the offsets positions of the garment respect to the body. 次に“body”エンコーダが“garment”デコーダに接続され、各衣料テンプレートの1つが、身体に関する衣服のオフセット位置を返す。 0.66
As the garment offsets have different behaviour depending of the template, is necessary to have a different decoder for each garment template. 衣服のオフセットはテンプレートによって異なる振る舞いを持つため、それぞれの衣料テンプレートに対して異なるデコーダを持つ必要がある。 0.74
o,k − ˆIC Each encoder layer is composed by a 2D convolution that sub-sample the input into a half size, a batch normalization o,k − ジIC 各エンコーダ層は、入力を半サイズにサブサンプルする2次元畳み込み、バッチ正規化によって構成される。 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: PhysXNet pipeline. 図2: PhysXNetパイプライン。 0.73
Given a sequence of human body motions without wearing any cloth, the velocities and accelerations of the body surface are calculated and registered in UV maps. 布を着ることなく一連の人体の動きが与えられると、体表面の速度と加速度がUVマップに計算され、登録される。 0.72
The PhysXNet network receive the current body UV maps with the two previous body UV maps to generate three different garment estimates that encodes the offset of the garment respect to the body. PhysXNetネットワークは、現在のボディUVマップを2つの以前のボディUVマップで受信し、身体に関する衣服のオフセットを符号化する3つの異なる衣服推定値を生成する。 0.78
These estimates are learnt with an adversarial training. これらの推定は敵の訓練によって学習される。 0.57
Finally, a given cloth garment is projected to the estimated UV maps to obtain the final cloth deformation. 最後に、推定されたUVマップに所定の布地を投影して最終布地変形を得る。 0.67
The discriminator of the network is only used in the training stage. ネットワークの判別器はトレーニング段階でのみ使用される。 0.69
and a ReLU function. そして、ReLU関数。 0.69
Each decoder layer is composed by a transposed 2D convolution that doubles the size of the input, and a batch normalization layer. 各デコーダ層は、入力のサイズを倍にする2D畳み込みとバッチ正規化層によって構成される。 0.78
We use four encoder and decoder layers with skip connections as in the UNet network [27]. UNetネットワーク[27]のように、スキップ接続を伴う4つのエンコーダ層とデコーダ層を使用します。 0.69
The discriminator D(G(X)) is a PatchGAN decoder with a binary output taken from [12]. 判別器D(G(X))は[12]から取ったバイナリ出力を持つPatchGANデコーダである。 0.69
The use of a discriminator helps the network to produce more smooth UV maps with no abrupt changes between close pixels. 判別器の使用は、近接ピクセル間の急激な変化を伴わず、ネットワークがより滑らかな紫外線マップを作成するのに役立つ。 0.61
4. Generate training data 4.1. 4.トレーニングデータ4.1を生成する。 0.72
Dataset The dataset is generated using Avatar Blender add-on [29]. データセット データセットはAvatar Blenderアドオン[29]を使って生成される。 0.66
This add-on is based on Makehuman [20] open source 3D human model and it is completely integrated to the rendering software Blender [4]. このアドオンはmakehuman [20]オープンソース3d人間モデルに基づいており、レンダリングソフトウェアブレンダ [4] に完全に統合されている。 0.80
It includes a parametric body model for pose and shape and, a library of clothes ready to use in a single click, which allows us to accelerate the generation of a physics cloth dataset. これには、ポーズと形のためのパラメトリックボディモデルと、ワンクリックで使える服のライブラリが含まれており、物理布データセットの生成を加速することができる。 0.69
From the cloth library we select three different 3D models (shirt, pants, dress) that will be used as our garment templates(tops, bottoms and dress). 布のライブラリから3つの異なる3Dモデル(シャツ、ズボン、ドレス)を選択します。
訳抜け防止モード: 布のライブラリーから3つの異なる3次元モデルを選択する (シャツ、ズボン、ドレス) 服のテンプレート(トップ、ボトム、ドレス)として使われます。
0.76
Each selected 3D model will be run with physical simulation activated for a total of 50 actions taken from CMU [5] and Mixamo [21] mocap files. 選択された各3Dモデルは、CMU[5]とMixamo[21]のモキャップファイルから取られた合計50のアクションに対して、物理シミュレーションをアクティベートして実行される。 0.73
Each simulation is designed bearing in mind that we want to capture the dynamics of a cloth during a long sequence action. 各シミュレーションは、長いシーケンスアクションの間、布のダイナミクスを捉えることを念頭に置いて設計されています。 0.75
In the current physics simulator based on spring-mass model [1], the cloth behavior is influenced by different parameters that can be grouped in three main areas: spring-mass model [1]に基づく現在の物理シミュレータでは、布の挙動は3つの主な領域にグループ化できる異なるパラメータに影響されている。 0.80
1) garment parameters gp, 1) 衣服パラメータgp, 0.79
2) world parameters wp and 2)world parameters wp および 0.80
3) external forces parameters fp. 3) 外部力パラメータfp。 0.76
World parameters such as gravity and air friction are unchanged for all simulations. 世界のパラメータ 重力と空気の摩擦は全てのシミュレーションで変化しない。 0.77
External forces such as velocity and acceleration parameters are constrained by the action defined in the motion files, and the garment parameters such as bending, stiffness, compression and shear, are adjusted to match a cotton fabric style simulation for each one of the cloth templates. 運動ファイルに定義された動作によって速度や加速度パラメータなどの外部力が拘束され、各布のテンプレートに対して綿布スタイルのシミュレーションに適合するように、曲げ、剛性、圧縮、せん断などの衣服パラメータが調整される。 0.85
The cloth fabric style needs to be adjusted for every cloth mesh used, as these parameters depends on the number of vertices of the mesh. これらのパラメータは、メッシュの頂点数に依存するため、使用する布メッシュ毎に布布のスタイルを調整する必要がある。 0.71
The simulations are run with collisions and selfcollisions activated. シミュレーションは衝突と自己衝突で実行されます。 0.80
4.2. Generate train UV maps 4.2. 電車UVマップの生成 0.57
k ∈ R3×Mb and dresses MDr k ∈ R3×Mb とドレスMDr 0.80
The synthetic dataset is generated from the 3D mesh models for body and clothes. 合成データセットは、身体および衣服の3dメッシュモデルから生成される。 0.87
The body mesh is a parametk (α, θ) ∈ R3×N with N vertices and a set of ric model MB parameters to control shape α and pose θ at frame sequence k. ボディメッシュは n 個の頂点を持つパラメトク (α, θ) ∈ r3×n と、形状 α を制御し、フレームシーケンス k で θ をポーズする ric モデル mb パラメータの集合である。 0.82
This body 3D model will wear each one of the three folk ∈ R3×Mt, bottoms lowing cloth mesh templates, tops MT k ∈ R3×Md, with Mt, Mb, MBt Md vertices respectively. このボディ3Dモデルは、3つの民用 ∈ R3×Mt、ボトムスローイング布メッシュテンプレート、トップス MT k ∈ R3×Md、マウントMb、MBtMdのそれぞれを装着する。
訳抜け防止モード: このボディ3Dモデルは、3つの民生 ∈ R3×Mt のそれぞれを装着する。 bottoms Lowing cloth mesh templates, tops MT k ∈ R3×Md, Mt , Mb , MBt Md vertices はそれぞれ。
0.88
For simplicity in the notation we will refer to the cloth mesh template models as M C k when the models are at sequence frame k. 表記法における単純性のために、モデルがシーケンスフレーム k であるとき、布メッシュテンプレートモデルを M C k と呼ぶ。 0.80
As there is no direct correspondence between the vertices of the body mesh and the vertices of the cloth templates, we define a transference matrix T BC which relates the body vertices with a point in the cloth surface, see Fig 3 and T CB relates cloth vertices with a point in the body surface, see Fig 4. 本体メッシュの頂点と布テンプレートの頂点との間には直接の対応関係がないので、身体頂点と布面の点を関連づける伝達行列TBを定義する。
訳抜け防止モード: 本体メッシュの頂点と布のテンプレートの頂点との間に直接の対応は存在しない。 転移マトリックスT BCを定義します 身体の頂点と布の表面の点を関連づけます Fig 3 と T CB は、布の頂点と体表面の点を関連付けている。 図4参照。
0.78
Hence, each cloth vertex position at frame k, can be expressed as a point in the body surface with an offset Ok as したがって、フレームkにおける各布の頂点位置をオフセットokの本体面の点として表現することができる。 0.82
data flowskipconnectionco ncatenationconv2D +bn+ relu0 / 1conv2D transp. data flowkipconnectioncon catenationconv2D +bn+ relu0 / 1conv2D transp。 0.18
+bnLegendGTDiscrimina torMeshesGarmentUV mapsGeneratorBodyUV mapsActionk−2k−1kIBv,kIBa,kITo,kIBt o,kIDro,k bnLegendGTDiscrimina torMeshesGarmentUV mapGeneratorBodyUV mapActionk−2k−1kIBv,kIBa,kITo,kIBt o,kIDro,k 0.24
英語(論文から抽出)日本語訳スコア
Figure 3: Offset garment calculation. 図3:オフセット服の計算。 0.70
Given a point in the body surface with UV coordinates u, v, a ray is thrown in the direction of its normal until intersects the garment model. 紫外線座標u,vを有する体表面の点が与えられると、衣服モデルと交差するまで、通常の方向に向かって光線が投げられる。 0.73
Then, the vector ∆x, ∆y, ∆z between the body and the garment is stored in the garment UV map. そして、体と衣服の間にあるベクターax,y,zを衣料UVマップに記憶する。 0.61
Figure 4: Cloth mesh to garment template projection. 図4:布のメッシュと衣料テンプレートの投影。 0.73
An arbitrary garment is worn into the human body model in Tpose position. 任意の衣服をヒトの体型に、トース位置で装着する。 0.64
Then, for every vertex, a ray is thrown in the direction of its normal until intersects the body model. そして、すべての頂点に対して、体モデルと交差するまで、通常の方向に向かって光線が投げられる。 0.74
The point on the surface of the body model has a correspondence with the coordinates of the garment templates. ボディモデルの表面上の点は、衣料テンプレートの座標と対応している。 0.63
in Eq 3: k = TCBMB Eq 3 では k = TCBMB 0.56
MC Ok = fP,k(fp, gp, wp) MC Ok = fP,k(fp, gp, wp) 0.42
k (α, θ) + Ok k (α, θ) + Ok 0.42
(3) (4) where fP,k(bf , gp, wp) is a function that defines the offset positions of each vertex given a set of parameters such as body forces fp, world scene wp and garment fabric gp. (3) (4) ここで fp,k(bf , gp, wp) は、体力 fp, world scene wp, clothing fabric gp などのパラメータが与えられた各頂点のオフセット位置を定義する関数である。
訳抜け防止モード: (3) (4) ここで fp, k(bf, gp, wp ) は、体力 fp のようなパラメータの集合が与えられた各頂点のオフセット位置を定義する関数である。 world scene wp and clothing fabric gp (英語)
0.65
Body UV maps. Neural networks are more efficient when using 2D image representations, and for that reason we will represent our 3D models surface by means of a UV maps. ボディUVマップ。 2次元画像表現を使用する場合、ニューラルネットワークはより効率的であり、そのため、uvマップを用いて3dモデル表面を表現します。 0.77
Each pixel (u, v) of the UV layout has a direct correspondence with a point in the mesh surface stored in the transference matrix TU B. Therefore, the body mesh surface is represented by the body UV map IB k (u, v). UVレイアウトの各画素(u,v)は、転送行列TUBに記憶されたメッシュ面内の点と直接対応しているので、本体メッシュ面は、ボディUVマップIBk(u,v)で表される。 0.64
From the body UV map positions we can easily obtain the UV maps for velocity IB ボディーUVマップ位置から、速度IBのためのUVマップを容易に取得できる 0.82
v,k(u, v) and acceleration IB v,k(u,v)および加速IB 0.76
a,k(u, v). a,k(u,v) である。 0.83
IB k (u, v) = TU B(u, v)MB IB v,k(u, v) = IB IB a,k(u, v) = IB IB k (u, v) = TU B(u, v)MB IB v,k(u, v) = IB IB a,k(u, v) = IB 0.42
k − IB k−1 v,k(u, v) − IB k − IB k−1 v,k(u, v) − IB 0.48
k (α, θ) v,k−1(u, v) k (α, θ) v,k−1(u, v) 0.45
(5) (6) (7) (5) (6) (7) 0.42
The original body UV map layout is modified to occupy as many pixels as possible inside the layout and therefore, get a better sampling of the surface of the body. 元のボディuvマップレイアウトは、レイアウト内でできるだけ多くのピクセルを占有するように変更されたため、ボディの表面のサンプリングが改善された。 0.65
Thus, face, hands and feet are removed from the layout, and upper and lower limbs are stretched and resized, see Fig 3. これにより、レイアウトから顔、手、足を取り外し、上肢、下肢を伸縮・再サイズし、図3を参照。
訳抜け防止モード: これにより、顔、手、足がレイアウトから取り除かれる。 上肢と下肢は伸展され サイズが変更されます 図3参照。
0.67
Garment UV maps. The garment UV maps I C k (u, v) will contain the offset vectors from the body surface to the cloth surface points for each pixel in the transference matrix TBC(u, v), Eq 8. UVの地図。 衣料UVマップICk(u,v)は、転送行列TBC(u,v)Eq8の各画素の体表面から布面点までのオフセットベクトルを含む。 0.66
This matrix is calculated with the body dressed with a T-pose position. この行列は、T位置の体で計算される。 0.61
Then, for every valid pixel in the body UV map IB k , is traced a ray along the normal of the body surface and the impact point is stored as そして、ボディUVマップIBk内の有効画素毎に、本体表面の正常に沿って光線を追跡し、衝撃点を記憶する。 0.65
the cloth point correspondence. This process is illustrated in Fig 3. 布の点の対応。 この過程は図3で示される。 0.67
IC k (u, v) = TBC(u, v)MC IC k (u, v) = TBC(u, v)MC 0.42
k − MB k − mb である。 0.48
k (α, θ) (8) k (α, θ) (8) 0.42
The case of the dress garment IDr ドレスウェアIDrの1例 0.49
k (u, v) is a bit different, since in the lower part of the dress garment will be parts of the mesh that have no body correspondence due to the rays along the surface normals of the inside part of the leg never impact to the center of the garment. k(u,v)は少し異なるが、衣服の下部では、脚の内側の表面の正常線が衣服の中央に影響を与えないため、体が一致しないメッシュの一部となる。 0.54
Therefore, another body mesh M Bd k (α, θ) where the legs are joined by an ellipsoid is created. したがって、脚を楕円体で接合する別のボディーメッシュmbdk(α,θ)が形成される。
訳抜け防止モード: したがって、別のボディーメッシュ M Bd k ( α, θ ) 脚は楕円体で結合する 作られています
0.77
4.3. Evaluate different garments 4.3. 異なる衣服の評価 0.57
Thus, given a garment model MX したがって、衣服モデルMXが与えられる。 0.60
The main advantage of the PhysXNet network over other methods is that we can easily use garments from different sources without the need of retrain the network. PhysXNetネットワークの他の手法に対する大きな利点は、ネットワークを再トレーニングすることなく、異なるソースの衣服を簡単に使用できることである。 0.84
These garments need to be able to be encapsulated in one of the three cloth templates, but there is no condition about the number of vertices neither the topology. これらの衣服は3つの布のテンプレートのうちの1つにカプセル化する必要があるが、位相にも頂点の数にも条件はない。 0.71
k ∈ R3×Nx where Nx is an arbitrary number of vertices we need to find the transference matrix TXB that relates a vertex of the model with the garment templates IC. k ∈ R3×Nx ここで、Nx は任意の数の頂点であり、モデルの頂点と衣服テンプレート IC を関連付ける伝達行列 TXB を見つける必要がある。 0.82
This process illustrated in Fig 4, and consists into throw a ray from the cloth vertex Nx along its normal direction to the body surface in a T-pose, in order to find the body UV map coordinate (u, v). 図4に示されるこのプロセスは、本体uvマップ座標(u,v)を見つけるために、布の頂点nxからt−pose内の本体表面へ通常の方向に沿って光線を投射する。 0.69
The body UV map IB k has a direct correspondence with each one of the estimated garment templates by the transference matrix TBC computed previously. 本体UVマップIBkは、予め計算された転送行列TBCにより推定された衣服テンプレートのそれぞれと直接対応する。 0.78
This coordinate will give us the offset respect to the body, and we will be able to reconstruct the mesh for a given frame k. この座標は、物体に対するオフセットを与え、与えられたフレーム k に対してメッシュを再構築することができる。 0.66
MX k = TXBMB MX k = TXBMB 0.43
k (α, θ) + Ok k (α, θ) + Ok 0.42
(9) (∆x, ∆y,∆z)(u, v) (9) (「x」,「y」,「z」,「u」,「v」) 0.51
英語(論文から抽出)日本語訳スコア
Figure 5: Qualitative results. 図5: 質的な結果。 0.80
Several frames of the sequence action jump with tops and bottoms templates in the first row and dress template in the second row. シーケンスアクションのいくつかのフレームは、第1行のトップとボトムのテンプレートと第2行のドレステンプレートでジャンプします。 0.75
In our case, the vertices of the cloth meshes evaluated fall a few pixels far from the UV map boundaries. 我々の場合、評価された布メッシュの頂点は紫外線マップの境界から数ピクセル離れている。 0.74
This fact, avoid us some discrepancies that could be in the opposite UV map coordinates values corresponding to the same vertex. この事実は、逆のuvマップ座標値が同じ頂点に対応する可能性があるいくつかの不一致を避ける。 0.77
In case a vertex fall in the UV map boundary, the best solution would be to average pixel values corresponding the same vertex. 頂点がuvマップの境界に落ちた場合、最善の解決策は、同じ頂点に対応する平均画素値である。 0.81
4.4. Implementation details 4.4. 実施内容 0.37
v,k, IB The PhysXNet network is trained with 22 actions with a total of 3, 217 frames and tested with 12 actions with a total of 1, 620 frames. v,k,IB PhysXNetネットワークは、合計3,217フレームの22のアクションでトレーニングされ、合計1,620フレームの12のアクションでテストされている。 0.56
All data UV maps, IB k are normalized independently from −1 to 1. すべてのデータ UV マップ IB k は−1 から 1 に独立して正規化される。 0.78
The network discriminator is trained with soft labels, using random uniform sampling from 0.0 to 0.3 for estimated labels, and from 0.7 to 1.0 for ground truth labels. ネットワーク判別器はソフトラベルを用いて訓練され、推定ラベルは0.0から0.3、グラウンド・真理ラベルは0.7から1.0である。 0.67
Moreover, a random 5% of training data on each epoch contain flip labels. さらに、各エポックのトレーニングデータのランダム5%はフリップラベルを含む。 0.68
Image UV map sizes are W = H = 256, λL1 = 100 and learning rate r = 2e − 04. 画像UVマップのサイズは W = H = 256, λL1 = 100, 学習率 r = 2e − 04 である。 0.87
The architecture is trained up to 150 epochs for 2 days in a single NVIDIA GeForce GTX 1080 GPU and inference mean time per frame is 0.0313s (load data, run, save files). アーキテクチャは1つのNVIDIA GeForce GTX 1080 GPUで最大150エポックを2日間トレーニングし、フレームあたりの推論平均時間は0.0313s(ロードデータ、実行、保存ファイル)である。 0.80
a,k, IC 5. Experiments a,k,IC 5.実験 0.61
We next evaluate our proposed PhysXNet performing several quantitative and qualitative experiments. 次に,提案するPhysXNetを定量的,定性的な実験により評価する。 0.61
In the quantitative experiments, we compare our proposed method with the Linear Blend Skinning (LBS) method as a baseline. 定量的実験では,提案手法を線形ブレンドスキニング法(LBS)をベースラインとして比較した。 0.76
The LBS method calculates the displacement of each vertex according to a weighted linear combination of the assigned skeleton segments. LBS法は、割り当てられた骨格セグメントの重み付け線形結合に基づいて各頂点の変位を算出する。 0.75
Results are given by comparing the estimated UV garment maps with the ground truth UV maps for each vertex of the garment template and also for each pixel in the UV garment map. その結果、推定されたUVの衣料地図と、その衣料テンプレートの各頂点と、UVの衣料地図の各画素とを比較した。
訳抜け防止モード: 服用テンプレートの各頂点について、推定されたUV服用地図と地上真理UVマップを比較して結果を得る。 また、UV衣料地図の各ピクセルについても。
0.71
In the qualitative results, we compare our proposed method with LBS and TailorNet [24]. 定性化の結果,提案手法をLBSとTailorNet [24]と比較した。 0.72
We also show the results of PhysXNet with different body shapes and other garment meshes than the ones used for train. また,PhysXNetの体型や衣服のメッシュが,電車で使用するものと異なる結果を示した。 0.71
5.1. Quantitative results 5.1. 定量結果 0.54
We provide two different measures for the quantitative results. 定量的結果に対する2つの異なる尺度を提供する。 0.62
First, we calculate the mean squared error (MSE) for each valid pixel of the PhysXNet estimated UV map templates ˆIC 0,k with the ground truth UV maps obtained from the synthetic dataset IC 0,k. まず、合成データセットIC 0,kから得られた基底真理UVマップを用いて、PhysXNet推定UVマップテンプレートの有効画素毎の平均2乗誤差(MSE)を算出する。 0.70
Then, we calculate the MSE error for the vertices of the cloth meshes used to generate the dataset. そして、データセットを生成するために使用する布メッシュの頂点に対するMSE誤差を算出する。 0.81
Note that the meshes are a subset of the UV map pixels. メッシュはuvマップピクセルのサブセットであることに注意してください。 0.67
英語(論文から抽出)日本語訳スコア
(a) MSE (mm.) UV map templates (a)MSE(mm.)UVマップテンプレート 0.79
(b) MSE (mm.) vertices mesh templates (b)MSE(mm.)頂点メッシュテンプレート 0.77
Figure 6: Quantitative results. 図6: 定量的な結果。 0.78
Mean squared error (MSE) in mm. for UV map estimated templates (above) and for mesh template vertices (below). 平均二乗誤差 (MSE) は, UVマップ推定テンプレート (上) とメッシュテンプレート頂点 (下) についてmm。 0.78
The evaluated actions in the Fig 6 are in the following jump, walking, moon walk, Chinese dance, punch, order: balancing, ballet, stretch arms, salsa dance, jogging, side step, and strong gesture. 図6において評価された動作は、ジャンプ、ウォーキング、ムーンウォーク、中国ダンス、パンチ、秩序:バランス、バレエ、ストレッチアーム、サルサダンス、ジョギング、サイドステップ、強いジェスチャーである。 0.70
The first bar with color cyan is for the tops template, the second bar with gray color is for the bottoms template and the third bar with purple color is for the dress template. シアン色の第一のバーはトップステンプレート、グレーの第二のバーはボトムステンプレート、第三のバーは紫のテンプレートである。
訳抜け防止モード: カラーシアンが入った最初のバーは、トップステンプレート用です。 グレーの2番目のバーはボトムズテンプレート用です 紫色の3つ目のバーは ドレスのテンプレートです
0.72
Some of these actions have very soft movements, like moon walk, balancing, walking, which results in small velocities and accelerations while some of the other motions like strong gesture, jump, punch in very few frames the pose has big changes which produces large velocities and accelerations. これらのアクションのいくつかは、ムーンウォーク、バランス、ウォーキングのような非常に柔らかい動きを持ち、これは小さな速度と加速度をもたらす一方で、強いジェスチャー、ジャンプ、パンチのような他の動きには、大きな速度と加速度を生み出す大きな変化がある。 0.73
Errors for tops and bottoms templates are very similar while errors in the dress template are almost double than the other two. トップとボトムズテンプレートのエラーは非常に似ていますが、ドレステンプレートのエラーは他の2つよりもほぼ倍です。 0.80
The reason why the dress template errors are bigger is due to the hallucination that the network needs to do in the legs of the body, as there are parts of the dress that have no direct correspondence with the input body UV maps. ドレステンプレートの誤差が大きい理由は、入力されたUVマップと直接対応しない部分があるため、ネットワークが身体の脚で行う必要があるという幻覚が原因である。 0.61
5.2. Qualitative results 5.2. 質的な結果 0.54
In the qualitative results we compare our proposed method PhysXNet, with LBS method and TailorNet [24] when possible. 定性評価の結果,提案手法であるPhysXNetとLBS法とTailorNet [24]を比較した。 0.68
Moreover, we show the performance under changes of human shape and different cloth topologies that have never been seen by the network. さらに,人体形状の変化と,ネットワークで見たことのない異なる布地トポロジによる性能を示す。 0.71
Results on continuous actions. We show several frames for the sequence Jump in Fig 5. 連続行動の結果。 図5のシーケンスジャンプ用のフレームをいくつか提示する。 0.71
In the top row the model wears the tops and bottoms templates, and in the bottom row, the model wears the dress template. トップ行では、モデルがトップとボトムのテンプレートを着用し、ボトム行では、モデルがドレステンプレートを着用します。
訳抜け防止モード: トップ行では、モデルがトップとボトムのテンプレートを着用します。 下の列のモデルには ドレスのテンプレートが付いています
0.82
We can observe that when the body goes up it generates several forces that 体が上昇すると、いくつかの力を生み出すことが観察できる。 0.66
Figure 7: Qualitative results. 図7: 質的な結果。 0.81
Comparison for LBS and PhysXNet methods. LBS法とPhysXNet法の比較 0.75
Here we find main differences in the upper part and bottom part of the dress. ここでは,服の上部と下部の主な違いを見いだす。 0.61
LBS method the dress just follows the body movements while our proposed method transfers the inertia of the movement to the dress. LBS法は,運動の慣性がドレスに伝達される間,身体の動きに従うだけである。
訳抜け防止モード: LBS法では、ドレスは体の動きに従っています。 提案手法は 運動の慣性を ドレスに転送する
0.79
Note that TailorNet has no dress garment, therefore there is no possible comparison. なお、tailornetにはドレス服がないため、比較はできない。 0.71
push the cloth also up. This kind of behaviour is not possible to obtain with other methods that only use human pose to deform the cloth. 布も上に押し上げて このような行動は、布を変形させるために人間のポーズのみを使用する他の方法では得られない。 0.62
Different garment topologies and body shapes. 衣服のトポロジーと体型が異なる。 0.69
The proposed PhysXNet is also able to deal with different body shapes, as the output of the network are the offsets of each garment respect to the body, and also with cloth garments that contains different number of vertices and different topologies. 提案されたphysxnetは、ネットワークの出力が身体に対する各衣服のオフセットであり、また、異なる頂点と異なるトポロジを含む布服であるので、異なる身体形状を扱うことができる。 0.65
This is possible due to the output UV map templates encode the surface of the garment, and when using a different mesh topology, it is only necessary to project the vertices of the mesh with the UV map without being necessary to retrain the network. これは、出力されたUVマップテンプレートが衣服の表面を符号化しているため可能であり、異なるメッシュトポロジーを使用する場合、ネットワークを再トレーニングする必要なしにメッシュの頂点をUVマップで投影する必要がある。 0.76
Results for 3D cloth (tshirt, shorts, shirt2, skirt) are shown in Fig 9. 図9に3D布(tシャツ、ショートパンツ、シャツ2、スカート)の結果が示されています。 0.70
Comparisons. We compare our PhysXNet network with the LBS method and TailorNet [24] in the case of Tops and Bottoms templates, and only with LBS method in the case of Dress template, as TailorNet does not have a dress model. 比較。 我々はPhysXNetネットワークを、TopsおよびBottomsテンプレートの場合のLBSメソッドとTailorNet [24]と比較し、Dressテンプレートの場合のLBSメソッドのみと比較する。 0.47
The human models used in our case, Makehuman [20], and TailorNet, SMPL [17], are different, and this makes that the represented actions are not exactly the same due to the internal bone structures and bone lengths. 本症例におけるヒトモデルであるmakehuman [20] とtailornet, smpl [17] は異なっており, 内骨構造と骨長の関係から, 同一ではない。
訳抜け防止モード: 私たちのケースで使用される人間モデル、Make Human [20] TailorNet, SMPL [ 17 ] は違う。 だからこそ 代表される行動は 内部の骨構造と骨の長さによって 全く同じではない
0.76
In Fig 8 we can observe the differences between the three methods. 図8では、3つの方法の違いを観察できます。 0.73
While in the LBS and TailorNet methods, the bottom part of the shirt is not moving while the performing punch action, in our proposed method, the shirt contains the movement produced by the body movements. LBS法とTailorNet法では、シャツの底部はパンチ動作中に動かないが、本手法では、シャツは体の動きによって生じる動きを含む。
訳抜け防止モード: LBS と TailorNet のメソッドでは、シャツの下部は動かない。 パンチアクションを実行します 提案手法では, このシャツは体の動きによって生じる動きを包含する。
0.69
The main reason for this behavior is because our method takes into account the current and past body motion and is able to apply it to the cloth, while other two methods are static and only use current body pose. この動作の主な理由は,現在および過去の身体の動きを考慮に入れ,布に適用できるためであり,他の2つの方法は静的であり,現在の体姿勢のみを使用するためである。 0.86
Similar we can observe in Fig 7 with the dress template. 同様に、fig 7ではドレステンプレートで観察できます。 0.71
英語(論文から抽出)日本語訳スコア
Figure 8: Qualitative results. 図8: 質的な結果。 0.81
Comparison for the LBS, PhysXNet and TailorNet methods for the action Punch. アクションパンチのためのLBS, PhysXNet, TailorNet 法の比較 0.69
Most differences can be found in the bottom part of the shirt. ほとんどの違いはシャツの下部にある。 0.51
The proposed PhysXNet is able to model the movement of the bottom part of the shirt during the action, while other two methods keep it on the same position for all the frames. 提案されたphysxnetは、動作中にシャツの底部の動きをモデル化することができるが、他の2つの方法は全てのフレームに対して同じ位置を保つことができる。 0.77
Note that TailorNet results are calculated on a different 3D body model. TailorNetの結果は、異なる3Dボディモデルで計算される。 0.83
3D Model Network Weights Inference 3dモデル ネットワーク重み推定 0.72
Time Cloth Shirt Pants Shirt Pants Shirt Pants 時間 布のシャツのズボンのシャツのズボン 0.48
LBS 1MB 1MB LBS 1MB 1MB 0.39
– – 3ms 3ms TailorNet PhysXNet 13.5GB 3.4GB 2.5GB 1.2GB -3ms3ms。 TailorNet PhysXNet 13.5GB 3.4GB 2.5GB 1.2GB 0.25
1MB 1MB 1GB 1GB 30ms 30ms 1mb 1mb 1gb 1gb 30ms 30ms 0.60
1s 500ms Figure 9: Qualitative results. 1 500ms 図9: 質的な結果。 0.64
Examples of different body shapes using several cloth meshes that have never been seen by the network. ネットワークで見たことのないいくつかの布のメッシュを使った異なるボディ形状の例。 0.74
There are also other differences between the three methods shown in Table 1. 表1に示す3つの方法には他にも違いがあります。 0.76
First, about the garment mesh models itself. まず、衣服のメッシュモデルそのものについてです。 0.57
While TailorNet uses very heavy models, up to 14GB per model, our cloth models and LBS are very light, being around 1MB. TailorNetは、1モデルあたり14GBという非常に重いモデルを使っているが、われわれの布モデルとLBSは非常に軽量で、1MB前後だ。 0.72
The counterpart, is that our model is very widely sampled, making difficult to capture small wrinkles. 一方、我々のモデルは非常に広くサンプル化されており、小さなしわを捉えるのが難しくなっている。 0.65
A second difference is about the network weights, while for a single garment, network weights are similar in size, in TailorNet, if a user wants to use more models it is necessary to download more weights. 2つ目の違いはネットワークの重みである。一方、1つの衣服の場合、ネットワークの重みは、tailornetでも同様のサイズであり、ユーザーがより多くのモデルを使いたければ、より多くの重みをダウンロードする必要がある。
訳抜け防止モード: 2つめの違いは、ネットワークの重みについてであり、1つの衣服についてである。 TailorNetでは、ユーザがより多くのモデルを使いたければ、より多くの重みをダウンロードする必要がある。
0.77
In our proposed method, the same weights are used for the three templates which can be applied to a large variety of garments. 提案手法では,多種多様な衣服に適用可能な3種類のテンプレートに対して,同じ重みが用いられる。 0.75
The last difference is about the execution time, as expected larger models comes with larger execution times. 最後の違いは、予想されるより大きなモデルがより大きな実行時間を持つように、実行時間に関するものだ。 0.61
Hence, in PhysXNet, with a single pass of the network we obtain the outputs of the three garment templates, in TailorNet it is be necessary to perform inference for each one of the desired garments. したがって、physxnetでは、ネットワークの単一パスで、3つの衣料テンプレートの出力を取得し、tailornetでは、所望の衣料品のそれぞれについて推論を行う必要がある。 0.72
Table 1: Comparison of 3D model size, network weights size and inference time for the LBS, TailorNet and PhysXNet methods. 表1:lbs、tailornet、physxnet法の3dモデルサイズ、ネットワークウェイトサイズ、推論時間の比較。
訳抜け防止モード: 表1 : 3次元モデルサイズ, ネットワークウェイトサイズの比較 そして、LBS、TailorNetおよびPhysXNetメソッドの推論時間。
0.79
Note that the proposed PhysXNet method can deal with multiple cloth templates at the same time, hence, network weights size, and inference time are much lower than TailorNet method. 提案されたphysxnetメソッドは複数の布テンプレートを同時に扱うことができるので、ネットワークの重みサイズと推論時間はtailornetメソッドよりもはるかに低い。 0.81
6. Conclusions We presented a network, PhysXNet, that generates cloth physical dynamics for three totally different garment templates at the same time. 6. 結論 我々は,3種類の異なる衣料テンプレートを同時に生成するネットワークPhysXNetを紹介した。
訳抜け防止モード: 6. 結論 私たちはPhysXNetというネットワークを紹介しました。 3つの全く異なる布のテンプレートを同時に生成します
0.60
The network is able to generalize to unseen body actions, different body shapes and different cloth 3D models, making the model suitable to integrate it into a larger pipeline. ネットワークは、体の動き、異なる体形、異なる布の3dモデルに一般化することができ、モデルがより大きなパイプラインに組み込むのに適している。 0.75
Our network can simulate the cloth physics behavior for any 3D cloth mesh randomly downloaded from the internet that fits to any of the three garment templates without being retrained. 我々のネットワークは、インターネットからランダムにダウンロードされた3Dの布のメッシュの物理挙動を、再トレーニングされることなくシミュレートすることができる。 0.72
The proposed method is compared quantitatively with the synthetic dataset ground truth and qualitatively with a baseline, LBS, and to an stateof-the-art method, TailorNet. 提案手法は合成データセットのグランド真理と定量的に比較され,ベースラインであるlbs,最先端手法であるtailornetと定性的に比較される。 0.66
Acknowledgment This work is supported partly by the Spanish government under project MoHuCo PID2020-120049RB-I00 , the ERANet Chistera project IPALM PCI2019-103386 and Mar´ıa de Maeztu Seal of Excellence MDM-2016-0656. 承認 この事業の一部は、MoHuCo PID2020-120049RB-I00 、ERANet Chistera Project IPALM PCI2019-103386、Mar ́ıa de Maeztu Seal of Excellence MDM-2016-0656の下でスペイン政府によって支援されている。 0.54
英語(論文から抽出)日本語訳スコア
References [1] David Baraff and Andrew Witkin. 参照 [1] david baraff と andrew witkin。 0.67
Large steps in cloth simIn SIGGRAPH ’98: Proceedings of the 25th anulation. 布の大きなステップ simIn SIGGRAPH '98: 第25回アニメーションのプロセッシング。 0.67
nual conference on Computer graphics and interactive techniques, pages 43–54, 1998. コンピュータグラフィックスとインタラクティブ技術に関する年次会議、43-54頁、1998年。 0.76
4 [2] Hugo Bertiche, Meysam Madadi, and Sergio Escalera. 4 ヒューゴ・ベルティチェ、マイサム・マダディ、セルジオ・エスカレラ。 0.37
Cloth3d: Clothed 3d humans, 2020. クロース3d:2020年の3D人間。 0.64
2 [3] Bharat Lal Bhatnagar, Garvita Tiwari, Christian Theobalt, and Gerard Pons-Moll. 2 Bharat Lal Bhatnagar氏、Garvita Tiwari氏、Christian Theobalt氏、Gerard Pons-Moll氏。 0.40
Multi-garment net: Learning to dress 3d people from images. マルチガーメントネット:画像から3Dの人々の服装を学ぶ。 0.81
In IEEE International Conference on Computer Vision (ICCV). IEEE International Conference on Computer Vision (ICCV) に参加。 0.42
IEEE, oct 2019. IEEE、2019年。 0.72
2 [4] Blender. 2 [4]ブレンダー。 0.52
https://www.blender. org. https://www.blender. org 0.29
Accessed: 2020-09-30. アクセス: 2020-09-30. 0.48
2, 4 [5] Cmu. 2, 4 [5]Cmu。 0.40
http://mocap.cs.cmu. edu. http://mocap.cs.cmu. edu。 0.44
Accessed: 2020- アクセス:2020年 0.75
09-30. 4 [6] Enric Corona, Albert Pumarola, Guillem Aleny`a, Gerard Pons-Moll, and Francesc Moreno-Noguer. 09-30. 4 6] Enric Corona, Albert Pumarola, Guillem Aleny`a, Gerard Pons-Moll, Francesc Moreno-Noguer. 0.41
Smplicit: Topology-aware generative model for clothed people. Smplicit: 服装者のためのトポロジー対応生成モデル。 0.70
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021. ieee/cvf conference on computer vision and pattern recognition(cvpr)202 1年開催。 0.59
2 [7] Zhenglin Geng, Daniel Johnson, and Ronald Fedkiw. 2 7] ジングリン・ゲン、ダニエル・ジョンソン、ロナルド・フェドキュー 0.47
Coercing machine learning to output physically accurate results. 相関機械学習は物理的に正確な結果を出力する。 0.60
Journal of Computational Physics, 406, 2020. 計算物理学雑誌『406』、2020年。 0.78
2 [8] Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. 2 Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio
訳抜け防止モード: 2 イアン・J・グッドフェロー, Jean Pouget - Abadie Mehdi Mirza, Bing Xu, David Warde - Farley, Sherjil Ozair アーロン・クールヴィルとヨシュア・ベンジオ。
0.60
Generative adversarial nets. In NIPS, 2014. 敵ネットの生成。 2014年、NIPS。 0.70
3 [9] Peng Guan, Loretta Reiss, David A. Hirshberg, Alexander Weiss, and Michael J. Black. 3 9]peng guan、loretta reiss、david a. hirshberg、alexander weiss、michael j. black。 0.52
Drape: Dressing any person. ドレープ:誰にでも着る。 0.59
ACM Trans. Graph. ACMトランス。 グラフ。 0.73
, 31(4), 2012. , 31(4), 2012. 0.38
3 [10] Erhan Gundogdu, Victor Constantin, Amrollah Seifoddini, Minh Dang, Mathieu Salzmann, and Pascal Fua. 3 10]Erhan Gundogdu, Victor Constantin, Amrollah Seifoddini, Minh Dang, Mathieu Salzmann, Pascal Fua 0.38
Garnet: A two-stream network for fast and accurate 3d cloth draping. Garnet: 高速で正確な3D布を描画するための2ストリームネットワーク。 0.65
In IEEE International Conference on Computer Vision (ICCV), 2019. IEEE International Conference on Computer Vision (ICCV) 2019で発表された。 0.88
2 [11] Marc Habermann, Weipeng Xu, , Michael Zollhoefer, Gerard Pons-Moll, and Christian Theobalt. 2 Marc Habermann氏、Weipeng Xu氏、Michael Zollhoefer氏、Gerard Pons-Moll氏、Christian Theobalt氏。 0.40
Deepcap: Monocular human performance capture using weak supervision. Deepcap: 弱い監督力を使った単眼のパフォーマンスキャプチャ。 0.69
In IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE Conference on Computer Vision and Pattern Recognition (CVPR) に参加。 0.41
IEEE, jun 2020. ieee、2020年6月。 0.57
2 [12] Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A Image-to-image translation with conditional adver- 2 12]phillip isola, jun-yan zhu, tinghui zhou, alexei : 条件付き副詞による画像から画像への翻訳
訳抜け防止モード: 2 [12 ]Phillip Isola, Jun-Yan Zhu,Tinghui Zhou, そしてAlexei A Image -to -条件付き副詞による画像翻訳-
0.58
Efros. sarial networks. エフロス。 サリアルネットワーク 0.53
In CVPR, 2017. 2017年、CVPR。 0.68
4 [13] Ning Jin, Yilin Zhu, Zhenglin Geng, and Ronald Fedkiw. 4 13]ニング・ジン、イリン・ズー、ジングリン・ゲン、ロナルド・フェドキュー。 0.42
A pixel-based framework for data-driven clothing, 2018. A pixel-based framework for data-driven clothing、2018年。 0.56
2 [14] Natsumi Kato, Hiroyuki Osone, Kotaro Oomori, Chun Ooi, and Yoichi Ochiai. 2 【14】加藤夏海、大曽根広行、大森光太郎、大井忠俊、落合陽一 0.43
Gans-based clothes design: Pattern maker In Augmented Human is all you need to design clothing. Gansベースの衣料品デザイン:パターンメーカーIn Augmented Humanは、衣料品をデザインするために必要なすべてだ。 0.65
International Conference (AH), 2019. 国際会議(AH)、2019年。 0.76
2 [15] Woojong Koh, Rahul Narain, and James F. O’Brien. 2 [15]Woojong Koh、Rahul Narain、James F. O'Brien。 0.40
Viewdependent adaptive cloth simulation with buckling compenIEEE Transactions on Visualization and Computer sation. buckling compenieee トランザクションを用いた視覚依存適応布の可視化とコンピュータサイテーションによるシミュレーション 0.74
Graphics, 21(10), 2015. 第21回(2015年)。 0.43
2 [16] Yue Li, Marc Habermann, Bernhard Thomaszewski, Stelian Coros, Thabo Beeler, and Christian Theobalt. 2 16]Yue Li, Marc Habermann, Bernhard Thomaszewski, Stelian Coros, Thabo Beeler, Christian Theobalt。 0.39
Deep physicsaware inference of cloth deformation for monocular human performance capture, 2020. モノキュラーヒトパフォーマンスキャプチャのための布変形の深部物理ウェア推論,2020年 0.60
2, 3 [17] Matthew Loper, Naureen Mahmood, Javier Romero, Gerard Pons-Moll, and Michael J. Black. 2, 3 Matthew Loper、Naureen Mahmood、Javier Romero、Gerard Pons-Moll、Michael J. Black。 0.58
SMPL: A skinned multi-person linear model. SMPL:スキン付き多人線形モデル。 0.78
ACM Trans. Graphics (Proc. SIGGRAPH Asia), 34(6), 2015. ACMトランス。 Graphics (Proc. SIGGRAPH Asia), 34(6), 2015年。 0.75
7 [18] Z. L¨ahner, D. Cremers, and T. Tung. 7 [18]Z・L・シャナー、D・クレマーズ、T・トゥン。 0.47
Deepwrinkles: Accurate and realistic clothing modeling. Deepwrinkles: 正確で現実的な衣服モデリング。 0.80
In European Conference on Computer Vision (ECCV), 2018. 2018年、欧州コンピュータビジョン会議(ECCV)に参加。 0.79
2 [19] Qianli Ma, Jinlong Yang, Anurag Ranjan, Sergi Pujades, Gerard Pons-Moll, Siyu Tang, and Michael Black. 2 19]キアンリ・マ、ジンロン・ヤン、アナラグ・ランジャン、セルギ・プジャデス、ジェラルド・ポンス=モル、シユ・タン、マイケル・ブラック
訳抜け防止モード: 2 [19 ]Qianli Ma, Jinlong Yang, Anurag Ranjan, Sergi Pujades, Gerard Pons - Moll, Siyu Tang, マイケル・ブラックとも。
0.65
Learning to dress 3d people in generative clothing. ジェネレーティブな服装で3Dの人々の服装を学ぶ。 0.66
In IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE Conference on Computer Vision and Pattern Recognition (CVPR) に参加。 0.41
IEEE, jun 2020. ieee、2020年6月。 0.57
2 [20] Makehuman. 2 [20]人間を作る。 0.56
http://www.makehuman community. 人間のコミュニティ。 0.47
org. Accessed: 2020-09-30. と。 アクセス:2020-09-30。 0.42
2, 4, 7 [21] Mixamo software. 2, 4, 7 21]mixamoソフトウェア。 0.53
https://www.mixamo.c om. https://www.mixamo.c om。 0.53
Ac- cessed: 2020-09-30. アク 2020-09-30シーズン終了。 0.43
4 [22] F. Moreno-Noguer and P. Fua. 4 [22]F.Moreno-NoguerとP.Fua 0.40
Stochastic exploration of IEEE Transacambiguities for nonrigid shape recovery. 非剛形形状回復のためのIEEE透過率の確率的探索 0.56
tions on Pattern Analysis and Machine Intelligence (PAMI), 35(2):463–475, 2013. パターン分析・機械知能研究会(pami, 35(2):463–475, 2013) 0.76
2 [23] F. Moreno-Noguer, M. Salzmann, V. Lepetit, and P. Fua. 2 [23]F. Moreno-Noguer, M. Salzmann, V. Lepetit, P. Fua. 0.43
Capturing 3d stretchable surfaces from single images in closed form. 単一の画像から3d伸縮可能な表面を閉じた形で撮影する。 0.60
In Proceedings of the Conference on Computer Vision and Pattern Recognition (CVPR), pages 1842–1849, 2009. CVPR (Proceedings of the Conference on Computer Vision and Pattern Recognition) において、1842–1849, 2009。 0.80
2 [24] Chaitanya Patel, Zhouyingcheng Liao, and Gerard PonsMoll. 2 [24]Chaitanya Patel、Zhouyingcheng Liao、Gerard PonsMoll。 0.36
Tailornet: Predicting clothing in 3d as a function of In Proceedings of human pose, shape and garment style. tailornet: 3dで衣服を予測することは、人間のポーズ、形、服装の手続きにおける機能である。 0.70
the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 2020. ieee/cvf conference on computer vision and pattern recognition (cvpr) 2020年6月に開催された。 0.59
2, 3, 6, 7 2, 3, 6, 7 0.42
[25] Albert Pumarola, Enric Corona, Gerard Pons-Moll, and Francesc Moreno-Noguer. 25]アルベルト・プマロラ、エンリク・コロナ、ジェラルド・ポンス=モル、フランチェスク・モレノ=ノガー。 0.52
D-nerf: Neural radiance fields for dynamic scenes. d-nerf: 動的シーンのためのニューラルラミアンスフィールド。 0.77
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021. ieee/cvf conference on computer vision and pattern recognition(cvpr)202 1年開催。 0.59
2 [26] Albert Pumarola, Jordi Sanchez-Riera, Gary Choi, Alberto Sanfeliu, and Francesc Moreno-Noguer. 2 26] アルベルト・プマロラ、ジョルディ・サンチェス=リーラ、ゲイリー・チョイ、アルベルト・サンフェリュー、フランチェスク・モレノ=ノジェ。 0.44
3DPeople: ModIn International eling the Geometry of Dressed Humans. 3DPeople: ModIn International eling the Geometry of Dressed Humans (英語) 0.85
Conference in Computer Vision (ICCV), 2019. コンピュータビジョン会議(iccv)、2019年。 0.67
2 [27] O. Ronneberger, P.Fischer, and T. Brox. 2 27] o. ronneberger, p. fischer, t. brox. 0.40
U-net: Convolutional networks for biomedical image segmentation. U-net: バイオメディカルイメージセグメンテーションのための畳み込みネットワーク。 0.78
In Medical Image Computing and Computer-Assisted Intervention (MICCAI), volume 9351, 2015. 医学画像コンピューティングとコンピュータ支援介入(MICCAI, Volume 9351, 2015)。 0.72
4 [28] J. Sanchez, J. ¨Ostlund, P. Fua, and F. Moreno-Noguer. 4 28] j. sanchez, j. sostlund, p. fua, f. moreno-noguer。 0.58
Simultaneous pose, correspondence and non-rigid shape. 同時ポーズ、対応、非剛体形状。 0.66
In Proceedings of the Conference on Computer Vision and Pattern Recognition (CVPR), pages 1189–1196, 2010. CVPR (Proceedings of the Conference on Computer Vision and Pattern Recognition) において、1189-1196頁。 0.69
2 [29] Jordi Sanchez-Riera, Aniol Civit, Marta Altarriba, and Francesc Moreno-Noguer. 2 Jordi Sanchez-Riera氏、Aniol Civit氏、Marta Altarriba氏、Francesc Moreno-Noguer氏。 0.40
Avatar: Blender add-on for fast creation of 3d human models, 2021. Avatar: Blenderアドオンは,3Dモデルを高速に作成するためのもので,2021年です。 0.59
4 [30] Igor Santesteban, Miguel A. Otaduy, and Dan Casas. 4 [30]Igor Santesteban、Miguel A. Otaduy、Dan Casas。 0.38
Learning-Based Animation of Clothing for Virtual Try-On. 仮想試着のための学習に基づく衣服のアニメーション 0.73
Computer Graphics Forum, 2019. コンピュータグラフィックスフォーラム、2019年。 0.76
3 [31] Igor Santesteban, Nils Thuerey, Miguel A Otaduy, and Dan Casas. 3 Igor Santesteban, Nils Thuerey, Miguel A Otaduy, Dan Casas。 0.35
Self-Supervised Collision Handling via Generative 3D Garment Models for Virtual Try-On. 仮想トライオンのためのジェネレーティブ3次元ガーメントモデルによる自己監督型衝突処理 0.58
IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021年。 0.45
2, 3 2, 3 0.85
英語(論文から抽出)日本語訳スコア
[32] Yu Shen, Junbang Liang, and Ming C. Lin. [32]ユ・シェン、ジュンバン・リアン、ミン・c・リン。 0.50
Gan-based In Progarment generation using sewing pattern images. 縫製パターン画像を用いたganに基づく食感生成 0.78
ceedings of the European Conference on Computer Vision (ECCV), 2020. 欧州コンピュータビジョン会議(ECCV)、2020年。 0.57
2 [33] Min Tang, Huamin Wang, Le Tang, Ruofeng Tong, and Dinesh Manocha. 2 [33]ミン・タン、ワミン・ワン、ル・タン、ルッフェン・トン、ディッシュ・マノチャ。 0.38
Cama: Contact-aware matrix assembly with unified collision handling for gpu-based cloth simulation. cama: gpuベースの布シミュレーションのための統一衝突処理を備えたコンタクトアウェアマトリクスアセンブリ。 0.78
Computer Graphics Forum, 35:511–521, 05 2016. コンピュータグラフィックスフォーラム、35:511–521、052016。 0.74
2 [34] Min Tang, TongTong Wang, Zhongyuan Liu, Ruofeng Tong, I-cloth: Incremental collision hanand Dinesh Manocha. 2 [34]南唐、トントンウォン、張元、ルッフェントン、I-クロース:インクリメンタル衝突ハナンド・ディネシュ・マノチャ。
訳抜け防止モード: 2 〔34〕ミン・タン、トントン・ワン、ソンギュアン・リウ、 ruofeng tong, i - cloth : incremental collision hanand dinesh manocha の略。
0.54
dling for gpu-based interactive cloth simulation. gpuを用いた対話型布地シミュレーションのための育種 0.55
ACM Transactions on Graphics, 37(6), 2018. acm transactions on graphics, 37(6), 2018を参照。 0.68
2 [35] Garvita Tiwari, Bharat Bhatnagar, Tony Tung, and Gerard Pons-Moll. 2 Garvita Tiwari氏、Bharat Bhatnagar氏、Tony Tung氏、Gerard Pons-Moll氏。 0.38
Sizer: A dataset and model for parsing 3d clothing and learning size sensitive 3d clothing. sizer: 3d服を解析し、サイズに敏感な3d服を学習するためのデータセットとモデル。
訳抜け防止モード: Sizer : データセットとモデル 3Dの服を解析し 3Dの服を学習する
0.81
In European Conference on Computer Vision (ECCV), 2020. 欧州コンピュータビジョン会議(ECCV)、2020年。 0.65
2 [36] G¨ul Varol, Javier Romero, Xavier Martin, Naureen Mahmood, Michael J. Black, Ivan Laptev, and Cordelia Schmid. 2 [36] ジュール・ヴァロール、ハビエル・ロメロ、ザビエル・マーティン、ナウレン・マフムード、マイケル・j・ブラック、イヴァン・ラプテフ、コーデリア・シュミット。 0.48
Learning from synthetic humans. In CVPR, 2017. 人工人間から学ぶ。 2017年、CVPR。 0.64
2 [37] Raquel Vidaurre, Igor Santesteban, Elena Garces, and Dan Casas. 2 Raquel Vidaurre氏、Igor Santesteban氏、Elena Garces氏、Dan Casas氏。 0.53
Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On. パラメトリック仮想トライオンのための完全畳み込みグラフニューラルネットワーク 0.71
Computer Graphics Forum (Proc. SCA), 2020. Computer Graphics Forum (Proc. SCA)、2020年。 0.86
2 [38] Tuanfeng Y. Wang, Duygu Ceylan, Jovan Popovic, and Niloy J. Mitra. 2 [38]Tuanfeng Y. Wang, Duygu Ceylan, Jovan Popovic, Niloy J. Mitra 0.42
Learning a shared shape space for multimodal garment design. マルチモーダル衣料デザインのための共有形状空間の学習 0.74
ACM Trans. Graph. ACMトランス。 グラフ。 0.73
, 37(6), 2018. , 37(6), 2018. 0.38
3 [39] Yangtuanfeng Wang, Tianjia Shao, Kai Fu, and Niloy Mitra. 3 [39]王陽俊、天智阿シャオ、カイフー、ニーロイ・ミトラ 0.43
Learning an intrinsic garment space for interactive authoring of garment animation. 衣服アニメーションのインタラクティブ作成のための内在的衣料空間の学習 0.80
ACM Trans. Graph. ACMトランス。 グラフ。 0.73
, 38(6), 2019. , 38(6), 2019. 0.38
2 [40] Shan Yang, Zherong Pan, Tanya Amert, Ke Wang, Licheng Yu, Tamara Berg, and Ming C. Lin. 2 40]シャンヤン、zherong pan、tanya amert、ke wang、licheng yu、tamara berg、ming c. lin。
訳抜け防止モード: 2 [40 ]シャン・ヤン、Zherong Pan、Tanya Amert、 Ke Wang氏、Licheng Yu氏、Tamara Berg氏、Ming C. Lin氏。
0.58
Physics-inspired garment recovery from a single-view image. 単一視点画像からの物理刺激による衣服の回復 0.56
ACM Transactions on Graphics, 37(5), 2018. acm transactions on graphics, 37(5), 2018を参照。 0.69
2 [41] Tao Yu, Zerong Zheng, Yuan Zhong, Jianhui Zhao, Dai Quionhai, Gerard Pons-Moll, and Yebin Liu. 2 [41]東雄、Zerong Zheng、Yuan Zhong、Jianhui Zhao、Dai Quionhai、Gerard Pons-Moll、Yebin Liu。
訳抜け防止モード: 2 《41 ] タオユ, ゼロ・ジン, セン・ソン, jianhui zhao, dai quionhai, gerard pons - moll そしてイビン・リウ
0.45
Simulcap : Single-view human performance capture with cloth simulation. Simulcap : 布のシミュレーションによる単視点人間のパフォーマンスキャプチャ 0.81
In IEEE Conference on Computer Vision and Pattern Recognition (CVPR), jun 2019. IEEE Conference on Computer Vision and Pattern Recognition (CVPR)で、Jun 2019が開催された。 0.83
2 [42] Meng Zhang, Tuanfeng Wang, Duygu Ceylan, and Niloy J Mitra. 2 [42]Meng Zhang、Tuanfeng Wang、Duygu Ceylan、Niloy J Mitra。 0.37
Deep detail enhancement for any garment. 衣料品の細部の改良。 0.49
arXiv preprint arXiv:2008.04367, 2020. arxiv プレプリント arxiv:2008.04367, 2020 0.43
2 2 0.42
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。