論文の概要: Meta Deformation Network: Meta Functionals for Shape Correspondence
- arxiv url: http://arxiv.org/abs/2006.14758v1
- Date: Fri, 26 Jun 2020 02:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:48:37.906875
- Title: Meta Deformation Network: Meta Functionals for Shape Correspondence
- Title(参考訳): メタ変形ネットワーク:形状対応のためのメタ機能
- Authors: Daohan Lu, Yi Fang
- Abstract要約: 変形による3次元形状マッチングのための「メタ変形ネットワーク」という新しい手法を提案する。
深層ニューラルネットワークは、学習されたテンプレートとクエリ形状との対応性を変形を介して与えることを目的とした第2のニューラルネットワークのパラメータに参照形状をマッピングする。
実験では,メタ変形ネットワークが,非動的パラメータを持つ従来のデコーダ設計を用いたMPI-FAUSTインターチャレンジの改善につながることを示す。
- 参考スコア(独自算出の注目度): 8.93634077640076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new technique named "Meta Deformation Network" for 3D shape
matching via deformation, in which a deep neural network maps a reference shape
onto the parameters of a second neural network whose task is to give the
correspondence between a learned template and query shape via deformation. We
categorize the second neural network as a meta-function, or a function
generated by another function, as its parameters are dynamically given by the
first network on a per-input basis. This leads to a straightforward overall
architecture and faster execution speeds, without loss in the quality of the
deformation of the template. We show in our experiments that Meta Deformation
Network leads to improvements on the MPI-FAUST Inter Challenge over designs
that utilized a conventional decoder design that has non-dynamic parameters.
- Abstract(参考訳): 本稿では, 深層ニューラルネットワークが参照形状を第2のニューラルネットワークのパラメータにマッピングし, 学習したテンプレートと問合せ形状との対応性を変形を介して与えるという, 変形による3次元形状マッチングのための「メタ変形ネットワーク」という新しい手法を提案する。
第2のニューラルネットワークをメタ関数、あるいは他の関数によって生成される関数として分類し、そのパラメータは入力ごとに第1のネットワークによって動的に与えられる。
これにより、全体的なアーキテクチャが単純になり、テンプレートの変形の品質が損なわれることなく、実行速度が速くなります。
実験では,メタ変形ネットワークが,非動的パラメータを持つ従来のデコーダ設計を利用したMPI-FAUSTインターチャレンジの改善につながることを示す。
関連論文リスト
- Joint Group Invariant Functions on Data-Parameter Domain Induce
Universal Neural Networks [14.45619075342763]
本稿では、一般化されたニューラルネットワークとその右逆演算子であるリッジレット変換を誘導する体系的手法を提案する。
リッジレット変換は逆であるため、対象関数を表すためにネットワークのパラメータの配置を記述することができる。
より広い階層のネットワークを包含する統一的な方法でシュルの補題を用いて、普遍性の新たな単純な証明を示す。
論文 参考訳(メタデータ) (2023-10-05T13:30:37Z) - Neural Shape Deformation Priors [14.14047635248036]
本稿では,新しい形状操作法であるニューラル・シェイプ・フォーメーション・プレファレンスを提案する。
形状の幾何学的性質に基づいて変形挙動を学習する。
本手法は, 難解な変形に対して適用可能であり, 未知の変形に対して良好に一般化できる。
論文 参考訳(メタデータ) (2022-10-11T17:03:25Z) - Neural Template: Topology-aware Reconstruction and Disentangled
Generation of 3D Meshes [52.038346313823524]
本稿では,Distangled Topologyによる3次元メッシュ再構成と生成のためのDTNetという新しいフレームワークを提案する。
提案手法は,最先端の手法と比較して,特に多様なトポロジで高品質なメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-06-10T08:32:57Z) - NeuroMorph: Unsupervised Shape Interpolation and Correspondence in One
Go [109.88509362837475]
入力2つの3次元形状を考慮したニューラルネットワークアーキテクチャであるNeuroMorphを提案する。
NeuroMorphはそれらの間のスムーズかつポイントツーポイント対応を生成する。
異なる対象カテゴリの非等尺性ペアを含む、さまざまな入力形状に対してうまく機能する。
論文 参考訳(メタデータ) (2021-06-17T12:25:44Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - Joint Learning of 3D Shape Retrieval and Deformation [43.359465703912676]
対象画像やスキャンと一致する高品質な3dモデルを作成するための新しい手法を提案する。
本手法は,既存の形状を3dモデルデータベースから検索し,その形状に適合するように変形する手法である。
論文 参考訳(メタデータ) (2021-01-19T22:49:41Z) - Spherical Transformer: Adapting Spherical Signal to CNNs [53.18482213611481]
Spherical Transformerは、球状信号を標準CNNで直接処理できるベクトルに変換できます。
我々は,球面MNIST認識,3次元オブジェクト分類,全方向画像セマンティックセグメンテーションの課題に対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-01-11T12:33:16Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。