論文の概要: Physics-informed Guided Disentanglement in Generative Networks
- arxiv url: http://arxiv.org/abs/2107.14229v4
- Date: Thu, 27 Apr 2023 09:33:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 17:41:57.952592
- Title: Physics-informed Guided Disentanglement in Generative Networks
- Title(参考訳): 生成ネットワークにおける物理インフォームド誘導乱れ
- Authors: Fabio Pizzati, Pietro Cerri, Raoul de Charette
- Abstract要約: 画像と画像の翻訳ネットワークは、対象領域に物理関連現象が存在する場合の絡み合い効果に悩まされる。
対象画像の視覚的特徴をアンタングルする一般的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 26.36897056828784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-image translation (i2i) networks suffer from entanglement effects in
presence of physics-related phenomena in target domain (such as occlusions,
fog, etc), lowering altogether the translation quality, controllability and
variability. In this paper, we propose a general framework to disentangle
visual traits in target images. Primarily, we build upon collection of simple
physics models, guiding the disentanglement with a physical model that renders
some of the target traits, and learning the remaining ones. Because physics
allows explicit and interpretable outputs, our physical models (optimally
regressed on target) allows generating unseen scenarios in a controllable
manner. Secondarily, we show the versatility of our framework to neural-guided
disentanglement where a generative network is used in place of a physical model
in case the latter is not directly accessible. Altogether, we introduce three
strategies of disentanglement being guided from either a fully differentiable
physics model, a (partially) non-differentiable physics model, or a neural
network. The results show our disentanglement strategies dramatically increase
performances qualitatively and quantitatively in several challenging scenarios
for image translation.
- Abstract(参考訳): 画像から画像への変換(i2i)ネットワークは、対象領域(咬合、霧など)における物理現象の存在下での絡み合い効果を被り、翻訳品質、制御性、変動性を完全に低下させる。
本稿では,対象画像の視覚特性をアンタングルする一般的な枠組みを提案する。
主に、単純な物理モデルの集合を基盤とし、対象とする特徴のいくつかを描画する物理モデルで絡み合いを導き、残りのものを学習します。
物理は明示的で解釈可能な出力を可能にするので、我々の物理モデル(最適にターゲットに回帰した)は制御不能なシナリオを生成できる。
第2に、生成ネットワークを物理モデルの代わりに使用して、後者が直接アクセスできない場合に、ニューラルネットワークによる絡み合いに対するフレームワークの汎用性を示す。
総じて,完全微分可能な物理モデル,(部分的に)非微分可能な物理モデル,あるいはニューラルネットワークから導かれる3つの不等角化戦略を紹介する。
その結果,画像翻訳におけるいくつかの難解なシナリオにおいて,性能を質的かつ定量的に向上させる方法が示された。
関連論文リスト
- PhysMotion: Physics-Grounded Dynamics From a Single Image [24.096925413047217]
物理シミュレーションの原理を取り入れた新しいフレームワークであるPhysMotionを導入し,1つの画像から生成された中間3次元表現をガイドする。
我々のアプローチは、従来のデータ駆動生成モデルの限界に対処し、より一貫した物理的に妥当な動きをもたらす。
論文 参考訳(メタデータ) (2024-11-26T07:59:11Z) - Transport-Embedded Neural Architecture: Redefining the Landscape of physics aware neural models in fluid mechanics [0.0]
二周期領域上で定義される物理問題であるTaylor-Green vortexは、標準物理インフォームドニューラルネットワークと我々のモデルの両方の性能を評価するベンチマークとして使用される。
その結果,標準物理インフォームドニューラルネットワークは解の正確な予測に失敗し,初期条件を時間的に返却するだけでなく,物理の時間的変化をうまく捉えていることがわかった。
論文 参考訳(メタデータ) (2024-10-05T10:32:51Z) - Latent Intuitive Physics: Learning to Transfer Hidden Physics from A 3D Video [58.043569985784806]
本稿では,物理シミュレーションのための伝達学習フレームワークである潜在直観物理学を紹介する。
単一の3Dビデオから流体の隠れた性質を推測し、新しいシーンで観察された流体をシミュレートすることができる。
我々は,本モデルの有効性を3つの方法で検証する: (i) 学習されたビジュアルワールド物理を用いた新しいシーンシミュレーション, (ii) 観測された流体力学の将来予測, (iii) 教師付き粒子シミュレーション。
論文 参考訳(メタデータ) (2024-06-18T16:37:44Z) - Physics-Encoded Graph Neural Networks for Deformation Prediction under
Contact [87.69278096528156]
ロボット工学では、触覚相互作用における物体の変形を理解することが不可欠である。
本稿では,物理符号化グラフニューラルネットワーク(GNN)を用いた予測手法を提案する。
コードとデータセットを公開して、ロボットシミュレーションと把握の研究を進めました。
論文 参考訳(メタデータ) (2024-02-05T19:21:52Z) - PhysGraph: Physics-Based Integration Using Graph Neural Networks [9.016253794897874]
我々は,コンピュータゲーム,バーチャルリアリティ,バーチャルトライオンなど多くの応用がある粗い衣服形状の詳細な拡張に焦点を当てた。
我々の貢献は単純な観察に基づいており、従来のシミュレーション手法では計算コストが比較的安い。
このアイデアが、小さなメッシュパッチの基本的な内部力に基づいてトレーニング可能な、学習可能なモジュールにつながることを実証しています。
論文 参考訳(メタデータ) (2023-01-27T16:47:10Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Neural Implicit Representations for Physical Parameter Inference from a Single Video [49.766574469284485]
本稿では,外見モデルのためのニューラル暗黙表現と,物理現象をモデル化するためのニューラル常微分方程式(ODE)を組み合わせることを提案する。
提案モデルでは,大規模なトレーニングデータセットを必要とする既存のアプローチとは対照的に,単一のビデオから物理的パラメータを識別することが可能になる。
ニューラル暗示表現を使用することで、高解像度ビデオの処理とフォトリアリスティック画像の合成が可能になる。
論文 参考訳(メタデータ) (2022-04-29T11:55:35Z) - Physically Explainable CNN for SAR Image Classification [59.63879146724284]
本稿では,SAR画像分類のための新しい物理誘導型ニューラルネットワークを提案する。
提案フレームワークは,(1)既存の説明可能なモデルを用いて物理誘導信号を生成すること,(2)物理誘導ネットワークを用いた物理認識特徴を学習すること,(3)従来の分類深層学習モデルに適応的に物理認識特徴を注入すること,の3つの部分からなる。
実験の結果,提案手法はデータ駆動型CNNと比較して,分類性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-10-27T03:30:18Z) - Towards an Interpretable Latent Space in Structured Models for Video
Prediction [30.080907495461876]
基礎となる物理力学が支配するビデオにおける将来のフレーム予測の課題に焦点をあてる。
我々は、オブジェクト中心のモデル、すなわち、オブジェクト表現を明示的に扱うモデルで作業し、潜在空間における損失を伝播する。
論文 参考訳(メタデータ) (2021-07-16T05:37:16Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。