論文の概要: LIMP: Learning Latent Shape Representations with Metric Preservation
Priors
- arxiv url: http://arxiv.org/abs/2003.12283v2
- Date: Wed, 2 Sep 2020 13:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 04:44:07.366286
- Title: LIMP: Learning Latent Shape Representations with Metric Preservation
Priors
- Title(参考訳): LIMP: Metric Preservation Priorsを用いた潜在形状表現の学習
- Authors: Luca Cosmo, Antonio Norelli, Oshri Halimi, Ron Kimmel, Emanuele
Rodol\`a
- Abstract要約: 我々は,変形可能な3次元形状の潜在表現を学習する上で,メートル法保存の活用が最優先事項であると主張する。
我々の理論的根拠は、トレーニングサンプルだけでは、高忠実な生成モデルを実現するには不十分である、という観察にある。
測地線損失のバックプロパゲーションにおける微分可能な固有距離の導入を初めて実証した。
- 参考スコア(独自算出の注目度): 16.337713166628944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we advocate the adoption of metric preservation as a powerful
prior for learning latent representations of deformable 3D shapes. Key to our
construction is the introduction of a geometric distortion criterion, defined
directly on the decoded shapes, translating the preservation of the metric on
the decoding to the formation of linear paths in the underlying latent space.
Our rationale lies in the observation that training samples alone are often
insufficient to endow generative models with high fidelity, motivating the need
for large training datasets. In contrast, metric preservation provides a
rigorous way to control the amount of geometric distortion incurring in the
construction of the latent space, leading in turn to synthetic samples of
higher quality. We further demonstrate, for the first time, the adoption of
differentiable intrinsic distances in the backpropagation of a geodesic loss.
Our geometric priors are particularly relevant in the presence of scarce
training data, where learning any meaningful latent structure can be especially
challenging. The effectiveness and potential of our generative model is
showcased in applications of style transfer, content generation, and shape
completion.
- Abstract(参考訳): 本稿では,変形可能な3次元形状の潜在表現を学習するための強力な事前知識として,計量保存の採用を提唱する。
我々の構成の鍵は、デコードされた形状に直接定義された幾何学的歪み基準の導入であり、デコード上の計量の保存を基礎となる潜在空間における線形経路の形成に翻訳する。
我々の理論的根拠は、トレーニングサンプルだけでは、高忠実な生成モデルを実現するには不十分であり、大規模なトレーニングデータセットの必要性を動機付けている。
対照的に、計量保存は、潜在空間の構築に生じる幾何学的歪みの量を制御するための厳密な方法を提供し、より高品質な合成サンプルへと繋がる。
さらに, 測地線損失のバックプロパゲーションにおいて, 微分可能な固有距離が採用されることを初めて示す。
我々の幾何学的先行は、有意義な潜在構造を学習することが特に困難であるような、希少なトレーニングデータの存在に特に関係している。
本モデルの有効性と可能性について, スタイル伝達, コンテンツ生成, 形状完備化の応用例を示した。
関連論文リスト
- Geometric Prior Guided Feature Representation Learning for Long-Tailed
Classification [49.90107582624604]
そこで,本論文では,よく表現されたヘッドクラスの特徴分布の幾何学的情報を活用し,モデルにテールクラスの基盤となる分布を学習させる手法を提案する。
パータード機能は、可能な限りテールクラスの基盤となる分布をカバーし、テスト領域におけるモデルの一般化性能を向上させることを目的としている。
論文 参考訳(メタデータ) (2024-01-21T09:16:29Z) - Surf-D: High-Quality Surface Generation for Arbitrary Topologies using
Diffusion Models [84.70704129551245]
Surf-Dは任意の位相を持つ表面として高品質な3次元形状を生成する新しい方法である。
UDFは任意のトポロジを扱うのに優れており、複雑な形状を生成することができる。
論文 参考訳(メタデータ) (2023-11-28T18:56:01Z) - Robustifying Generalizable Implicit Shape Networks with a Tunable
Non-Parametric Model [10.316008740970037]
無向点雲からの暗黙的形状再構成の一般化可能なモデルは一般化問題に悩まされる。
ここでは、これらの制限のいくつかをテスト時に緩和する効率的なメカニズムを提案する。
本稿では,本手法によるベースラインの改良と,合成データと実データを用いた最先端技術について述べる。
論文 参考訳(メタデータ) (2023-11-21T20:12:29Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Toward Mesh-Invariant 3D Generative Deep Learning with Geometric
Measures [2.167843405313757]
幾何学的データの取得を可能にする技術が開発されているため、3次元生成モデリングは加速している。
多くの生成学習アルゴリズムは、予測された形状と対象形状を比較する際に、各点間の対応を必要とする。
トレーニングフェーズにおいても,異なるパラメータ化に対処可能なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-27T19:27:15Z) - A Systematic Survey in Geometric Deep Learning for Structure-based Drug
Design [63.30166298698985]
構造に基づく薬物設計(SBDD)は、タンパク質の3次元幾何学を利用して、潜在的な薬物候補を特定する。
幾何学的深層学習の最近の進歩は、3次元幾何データの統合と処理に焦点をあてて、構造に基づく薬物設計の分野を大いに進歩させてきた。
論文 参考訳(メタデータ) (2023-06-20T14:21:58Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Deep Manifold Prior [37.725563645899584]
本稿では,3次元形状の表面などの多様体構造データに先行する手法を提案する。
この方法で生成された曲面は滑らかであり、ガウス過程を特徴とする制限的な挙動を示し、完全連結および畳み込みネットワークに対して数学的にそのような特性を導出する。
論文 参考訳(メタデータ) (2020-04-08T20:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。