論文の概要: LIMP: Learning Latent Shape Representations with Metric Preservation
Priors
- arxiv url: http://arxiv.org/abs/2003.12283v2
- Date: Wed, 2 Sep 2020 13:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:44:07.366286
- Title: LIMP: Learning Latent Shape Representations with Metric Preservation
Priors
- Title(参考訳): LIMP: Metric Preservation Priorsを用いた潜在形状表現の学習
- Authors: Luca Cosmo, Antonio Norelli, Oshri Halimi, Ron Kimmel, Emanuele
Rodol\`a
- Abstract要約: 我々は,変形可能な3次元形状の潜在表現を学習する上で,メートル法保存の活用が最優先事項であると主張する。
我々の理論的根拠は、トレーニングサンプルだけでは、高忠実な生成モデルを実現するには不十分である、という観察にある。
測地線損失のバックプロパゲーションにおける微分可能な固有距離の導入を初めて実証した。
- 参考スコア(独自算出の注目度): 16.337713166628944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we advocate the adoption of metric preservation as a powerful
prior for learning latent representations of deformable 3D shapes. Key to our
construction is the introduction of a geometric distortion criterion, defined
directly on the decoded shapes, translating the preservation of the metric on
the decoding to the formation of linear paths in the underlying latent space.
Our rationale lies in the observation that training samples alone are often
insufficient to endow generative models with high fidelity, motivating the need
for large training datasets. In contrast, metric preservation provides a
rigorous way to control the amount of geometric distortion incurring in the
construction of the latent space, leading in turn to synthetic samples of
higher quality. We further demonstrate, for the first time, the adoption of
differentiable intrinsic distances in the backpropagation of a geodesic loss.
Our geometric priors are particularly relevant in the presence of scarce
training data, where learning any meaningful latent structure can be especially
challenging. The effectiveness and potential of our generative model is
showcased in applications of style transfer, content generation, and shape
completion.
- Abstract(参考訳): 本稿では,変形可能な3次元形状の潜在表現を学習するための強力な事前知識として,計量保存の採用を提唱する。
我々の構成の鍵は、デコードされた形状に直接定義された幾何学的歪み基準の導入であり、デコード上の計量の保存を基礎となる潜在空間における線形経路の形成に翻訳する。
我々の理論的根拠は、トレーニングサンプルだけでは、高忠実な生成モデルを実現するには不十分であり、大規模なトレーニングデータセットの必要性を動機付けている。
対照的に、計量保存は、潜在空間の構築に生じる幾何学的歪みの量を制御するための厳密な方法を提供し、より高品質な合成サンプルへと繋がる。
さらに, 測地線損失のバックプロパゲーションにおいて, 微分可能な固有距離が採用されることを初めて示す。
我々の幾何学的先行は、有意義な潜在構造を学習することが特に困難であるような、希少なトレーニングデータの存在に特に関係している。
本モデルの有効性と可能性について, スタイル伝達, コンテンツ生成, 形状完備化の応用例を示した。
関連論文リスト
- ND-SDF: Learning Normal Deflection Fields for High-Fidelity Indoor Reconstruction [50.07671826433922]
微妙な幾何を同時に復元し、異なる特徴を持つ領域をまたいだ滑らかさを保つことは自明ではない。
そこで我々は,ND-SDFを提案する。ND-SDFは,通常のシーンとそれ以前のシーンの角偏差を表す正規偏向場を学習する。
本手法は, 壁面や床面などのスムーズなテクスチャ構造を得るだけでなく, 複雑な構造の幾何学的詳細も保存する。
論文 参考訳(メタデータ) (2024-08-22T17:59:01Z) - GeoWizard: Unleashing the Diffusion Priors for 3D Geometry Estimation from a Single Image [94.56927147492738]
単一画像から幾何学的属性を推定するための新しい生成基盤モデルであるGeoWizardを紹介する。
拡散前処理の活用は,資源利用における一般化,詳細な保存,効率性を著しく向上させることが示唆された。
本稿では,様々なシーンの複雑なデータ分布を,個別のサブディストリビューションに分離する,シンプルかつ効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-03-18T17:50:41Z) - Robustifying Generalizable Implicit Shape Networks with a Tunable
Non-Parametric Model [10.316008740970037]
無向点雲からの暗黙的形状再構成の一般化可能なモデルは一般化問題に悩まされる。
ここでは、これらの制限のいくつかをテスト時に緩和する効率的なメカニズムを提案する。
本稿では,本手法によるベースラインの改良と,合成データと実データを用いた最先端技術について述べる。
論文 参考訳(メタデータ) (2023-11-21T20:12:29Z) - Toward Mesh-Invariant 3D Generative Deep Learning with Geometric
Measures [2.167843405313757]
幾何学的データの取得を可能にする技術が開発されているため、3次元生成モデリングは加速している。
多くの生成学習アルゴリズムは、予測された形状と対象形状を比較する際に、各点間の対応を必要とする。
トレーニングフェーズにおいても,異なるパラメータ化に対処可能なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-27T19:27:15Z) - Geometric Deep Learning for Structure-Based Drug Design: A Survey [83.87489798671155]
構造に基づく薬物設計(SBDD)は、タンパク質の3次元幾何学を利用して、潜在的な薬物候補を特定する。
近年の幾何学的深層学習の進歩は、3次元幾何学的データを効果的に統合・処理し、この分野を前進させてきた。
論文 参考訳(メタデータ) (2023-06-20T14:21:58Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - On the Viability of Monocular Depth Pre-training for Semantic Segmentation [48.29060171161375]
本研究は,意味的タスクへの下流移動において,幾何学的タスクの事前学習が有効かどうかを考察する。
単分子深度は意味的セグメンテーションのための事前学習の実行可能な形式であり、共通ベースラインの改善によって検証される。
論文 参考訳(メタデータ) (2022-03-26T04:27:28Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。