論文の概要: Learning Physics Properties of Fabrics and Garments with a Physics
Similarity Neural Network
- arxiv url: http://arxiv.org/abs/2112.10727v1
- Date: Mon, 20 Dec 2021 18:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 17:49:08.710830
- Title: Learning Physics Properties of Fabrics and Garments with a Physics
Similarity Neural Network
- Title(参考訳): 物理類似性ニューラルネットワークを用いた織物・衣服の物理特性の学習
- Authors: Li Duan, Lewis Boyd, Gerardo Aragon-Camarasa
- Abstract要約: 物理類似性ネットワーク(PhySNet)を用いて実織物と衣服の物理類似性を学習し,その物理パラメータを予測することを提案する。
本研究では,電気ファンが発生した風速と面積の重みを推定し,模擬織物や衣服の曲げ剛性を推定する。
- 参考スコア(独自算出の注目度): 3.190574537106449
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose to predict the physics parameters of real fabrics
and garments by learning their physics similarities between simulated fabrics
via a Physics Similarity Network (PhySNet). For this, we estimate wind speeds
generated by an electric fan and the area weight to predict bending stiffness
of simulated and real fabrics and garments. We found that PhySNet coupled with
a Bayesian optimiser can predict physics parameters and improve the
state-of-art by 34%for real fabrics and 68% for real garments.
- Abstract(参考訳): 本稿では,物理類似ネットワーク(PhySNet)を用いて,実織物と衣服の物理パラメータをシミュレーション織物間の物理類似性を学習することにより予測する。
本研究では,扇風機によって発生する風速と面積重量を推定し,実布や衣服の曲げ剛性を予測する。
ファイネットをベイズ光子と組み合わせることで、物理パラメータを予測でき、実織物では34%、実服では68%改善できることがわかった。
関連論文リスト
- DiffAvatar: Simulation-Ready Garment Optimization with Differentiable
Simulation [29.196313761540218]
DiffAvatarは,身体と衣服の共最適化を行う新しい手法である。
提案手法は,下流で容易に使用可能なリアルな衣服や体型を創出することを示す。
論文 参考訳(メタデータ) (2023-11-20T21:20:37Z) - Designing Observables for Measurements with Deep Learning [0.1450405446885067]
機械学習を用いた最適観測器の設計を提案する。
ニューラルネットワーク出力における微分断面積は、興味のあるパラメータに関する最も多くの情報を含み、構築によって適切に測定できる。
論文 参考訳(メタデータ) (2023-10-12T20:54:34Z) - Physics-Driven Diffusion Models for Impact Sound Synthesis from Videos [78.49864987061689]
従来の衝撃音合成法では、音を表現・合成できる物理パラメータのセットを得るために物理シミュレーションを用いていた。
既存のビデオ駆動ディープラーニングベースのアプローチは、視覚コンテンツと衝撃音の間の弱い対応を捉えることしかできなかった。
サイレントビデオクリップに高忠実度衝撃音を合成できる物理駆動拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:59:53Z) - Fine-grained differentiable physics: a yarn-level model for fabrics [33.01541119342456]
微分可能な物理モデリングは、物理モデルと勾配に基づく学習を組み合わせて、モデル説明可能性とデータ効率を提供する。
そこで本研究では,布などの複合材料に対する新しい微分可能な織物モデルを提案する。
論文 参考訳(メタデータ) (2022-02-01T16:01:01Z) - PhysXNet: A Customizable Approach for LearningCloth Dynamics on Dressed
People [38.23532960427364]
これらの衣服を装着した人間の3次元骨格運動列を与えられた変形可能な衣服のダイナミクスを予測するための学習ベースのアプローチであるPhysXNetを紹介した。
PhysXNetは、密度の高い布メッシュの幾何学をミリ秒単位で推定することができる。
PhysXNetは物理エンジンで計算したものと非常に近い布の変形を提供する。
論文 参考訳(メタデータ) (2021-11-13T21:05:41Z) - Dynamic Visual Reasoning by Learning Differentiable Physics Models from
Video and Language [92.7638697243969]
視覚概念を協調的に学習し,映像や言語から物体の物理モデルを推定する統合フレームワークを提案する。
これは視覚認識モジュール、概念学習モジュール、微分可能な物理エンジンの3つのコンポーネントをシームレスに統合することで実現される。
論文 参考訳(メタデータ) (2021-10-28T17:59:13Z) - Physically Explainable CNN for SAR Image Classification [59.63879146724284]
本稿では,SAR画像分類のための新しい物理誘導型ニューラルネットワークを提案する。
提案フレームワークは,(1)既存の説明可能なモデルを用いて物理誘導信号を生成すること,(2)物理誘導ネットワークを用いた物理認識特徴を学習すること,(3)従来の分類深層学習モデルに適応的に物理認識特徴を注入すること,の3つの部分からなる。
実験の結果,提案手法はデータ駆動型CNNと比較して,分類性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-10-27T03:30:18Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Visual Grounding of Learned Physical Models [66.04898704928517]
人間は、物体の物理的特性を直感的に認識し、複雑な相互作用に従事している場合でも、その動きを予測する。
我々は、物理を同時に推論し、視覚と力学の先行に基づく将来の予測を行うニューラルモデルを提案する。
実験により、我々のモデルはいくつかの観測範囲内で物理的特性を推測できることが示され、モデルが目に見えないシナリオに迅速に適応し、将来正確な予測を行うことができる。
論文 参考訳(メタデータ) (2020-04-28T17:06:38Z) - Cloth in the Wind: A Case Study of Physical Measurement through
Simulation [50.31424339972478]
実例を一度も見ずに風中の布の潜伏物性を測定することを提案する。
私たちのソリューションは、シミュレーションをコアとした反復的な洗練手順です。
この対応は、物理的に類似した例を近くの点にマッピングする埋め込み関数を用いて測定される。
論文 参考訳(メタデータ) (2020-03-09T21:32:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。