論文の概要: MetaSDF: Meta-learning Signed Distance Functions
- arxiv url: http://arxiv.org/abs/2006.09662v1
- Date: Wed, 17 Jun 2020 05:14:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 20:35:49.882161
- Title: MetaSDF: Meta-learning Signed Distance Functions
- Title(参考訳): MetaSDF: メタ学習による距離関数
- Authors: Vincent Sitzmann, Eric R. Chan, Richard Tucker, Noah Snavely, Gordon
Wetzstein
- Abstract要約: ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
- 参考スコア(独自算出の注目度): 85.81290552559817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural implicit shape representations are an emerging paradigm that offers
many potential benefits over conventional discrete representations, including
memory efficiency at a high spatial resolution. Generalizing across shapes with
such neural implicit representations amounts to learning priors over the
respective function space and enables geometry reconstruction from partial or
noisy observations. Existing generalization methods rely on conditioning a
neural network on a low-dimensional latent code that is either regressed by an
encoder or jointly optimized in the auto-decoder framework. Here, we formalize
learning of a shape space as a meta-learning problem and leverage
gradient-based meta-learning algorithms to solve this task. We demonstrate that
this approach performs on par with auto-decoder based approaches while being an
order of magnitude faster at test-time inference. We further demonstrate that
the proposed gradient-based method outperforms encoder-decoder based methods
that leverage pooling-based set encoders.
- Abstract(参考訳): ニューラル暗黙の形状表現は、空間分解能の高いメモリ効率を含む従来の離散表現よりも多くの潜在的な利点を提供する新興パラダイムである。
このような暗黙的表現で形状を一般化することは、各関数空間上の先行学習に比例し、部分的あるいは雑音的な観測から幾何学的再構成を可能にする。
既存の一般化手法は、エンコーダによって回帰されるか、オートデコーダフレームワークで共同最適化される低次元の潜在コードにニューラルネットワークを条件付けすることに依存している。
ここでは,形状空間の学習をメタラーニング問題として形式化し,勾配に基づくメタラーニングアルゴリズムを用いてこの問題を解決する。
このアプローチは自動デコーダベースのアプローチと同等に動作し、テスト時間推論では桁違いに高速であることを示す。
さらに,提案手法は,プール方式のセットエンコーダを利用するエンコーダ方式よりも優れていることを示す。
関連論文リスト
- Generalizable Neural Fields as Partially Observed Neural Processes [16.202109517569145]
本稿では,ニューラル表現の大規模トレーニングを部分的に観察されたニューラルプロセスフレームワークの一部として考える新しいパラダイムを提案する。
このアプローチは、最先端の勾配に基づくメタラーニングアプローチとハイパーネットワークアプローチの両方より優れていることを実証する。
論文 参考訳(メタデータ) (2023-09-13T01:22:16Z) - Few 'Zero Level Set'-Shot Learning of Shape Signed Distance Functions in
Feature Space [6.675491069288519]
ポイントクラウドからの学習に基づく形状再構成の新しいアイデアを探求する。
私たちは畳み込みエンコーダを使用して、入力ポイントクラウドを前提とした機能空間を構築します。
暗黙デコーダは、この特徴空間に表される点について符号付き距離値を予測することを学ぶ。
論文 参考訳(メタデータ) (2022-07-09T00:14:39Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。