論文の概要: Meta Deformation Network: Meta Functionals for Shape Correspondence
- arxiv url: http://arxiv.org/abs/2006.14758v1
- Date: Fri, 26 Jun 2020 02:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:48:37.906875
- Title: Meta Deformation Network: Meta Functionals for Shape Correspondence
- Title(参考訳): メタ変形ネットワーク:形状対応のためのメタ機能
- Authors: Daohan Lu, Yi Fang
- Abstract要約: 変形による3次元形状マッチングのための「メタ変形ネットワーク」という新しい手法を提案する。
深層ニューラルネットワークは、学習されたテンプレートとクエリ形状との対応性を変形を介して与えることを目的とした第2のニューラルネットワークのパラメータに参照形状をマッピングする。
実験では,メタ変形ネットワークが,非動的パラメータを持つ従来のデコーダ設計を用いたMPI-FAUSTインターチャレンジの改善につながることを示す。
- 参考スコア(独自算出の注目度): 8.93634077640076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new technique named "Meta Deformation Network" for 3D shape
matching via deformation, in which a deep neural network maps a reference shape
onto the parameters of a second neural network whose task is to give the
correspondence between a learned template and query shape via deformation. We
categorize the second neural network as a meta-function, or a function
generated by another function, as its parameters are dynamically given by the
first network on a per-input basis. This leads to a straightforward overall
architecture and faster execution speeds, without loss in the quality of the
deformation of the template. We show in our experiments that Meta Deformation
Network leads to improvements on the MPI-FAUST Inter Challenge over designs
that utilized a conventional decoder design that has non-dynamic parameters.
- Abstract(参考訳): 本稿では, 深層ニューラルネットワークが参照形状を第2のニューラルネットワークのパラメータにマッピングし, 学習したテンプレートと問合せ形状との対応性を変形を介して与えるという, 変形による3次元形状マッチングのための「メタ変形ネットワーク」という新しい手法を提案する。
第2のニューラルネットワークをメタ関数、あるいは他の関数によって生成される関数として分類し、そのパラメータは入力ごとに第1のネットワークによって動的に与えられる。
これにより、全体的なアーキテクチャが単純になり、テンプレートの変形の品質が損なわれることなく、実行速度が速くなります。
実験では,メタ変形ネットワークが,非動的パラメータを持つ従来のデコーダ設計を利用したMPI-FAUSTインターチャレンジの改善につながることを示す。
関連論文リスト
- GFN: A graph feedforward network for resolution-invariant reduced operator learning in multifidelity applications [0.0]
本研究は,多忠実度アプリケーションのための新しい分解能不変モデルオーダー削減戦略を提案する。
我々はこの研究で開発された新しいニューラルネットワーク層、グラフフィードフォワードネットワークに基づいてアーキテクチャを構築した。
パラメトリックな偏微分方程式に対する自己エンコーダに基づく還元戦略において,異なるメッシュサイズでのトレーニングとテストの能力を利用する。
論文 参考訳(メタデータ) (2024-06-05T18:31:37Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Neural Shape Deformation Priors [14.14047635248036]
本稿では,新しい形状操作法であるニューラル・シェイプ・フォーメーション・プレファレンスを提案する。
形状の幾何学的性質に基づいて変形挙動を学習する。
本手法は, 難解な変形に対して適用可能であり, 未知の変形に対して良好に一般化できる。
論文 参考訳(メタデータ) (2022-10-11T17:03:25Z) - Neural Template: Topology-aware Reconstruction and Disentangled
Generation of 3D Meshes [52.038346313823524]
本稿では,Distangled Topologyによる3次元メッシュ再構成と生成のためのDTNetという新しいフレームワークを提案する。
提案手法は,最先端の手法と比較して,特に多様なトポロジで高品質なメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-06-10T08:32:57Z) - NeuroMorph: Unsupervised Shape Interpolation and Correspondence in One
Go [109.88509362837475]
入力2つの3次元形状を考慮したニューラルネットワークアーキテクチャであるNeuroMorphを提案する。
NeuroMorphはそれらの間のスムーズかつポイントツーポイント対応を生成する。
異なる対象カテゴリの非等尺性ペアを含む、さまざまな入力形状に対してうまく機能する。
論文 参考訳(メタデータ) (2021-06-17T12:25:44Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - Joint Learning of 3D Shape Retrieval and Deformation [43.359465703912676]
対象画像やスキャンと一致する高品質な3dモデルを作成するための新しい手法を提案する。
本手法は,既存の形状を3dモデルデータベースから検索し,その形状に適合するように変形する手法である。
論文 参考訳(メタデータ) (2021-01-19T22:49:41Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。