論文の概要: Neural Implicit Surfaces in Higher Dimension
- arxiv url: http://arxiv.org/abs/2201.09636v1
- Date: Mon, 24 Jan 2022 12:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 22:53:05.236812
- Title: Neural Implicit Surfaces in Higher Dimension
- Title(参考訳): 高次元におけるニューラルインシシデント表面
- Authors: Tiago Novello, Vinicius da Silva, Helio Lopes, Guilherme Shardong,
Luiz Schirmer, Luiz Velho
- Abstract要約: 本研究では,スムーズな暗示曲面の動的変動をモデル化するために,高次微分を許容するニューラルネットワークの利用について検討する。
アニメーションや表面の進化から形状変化やデザインギャラリーに至るまで、多くの場面で幾何学的変換を活用できるメカニズムを開放する。
- 参考スコア(独自算出の注目度): 0.6198237241838558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work investigates the use of neural networks admitting high-order
derivatives for modeling dynamic variations of smooth implicit surfaces. For
this purpose, it extends the representation of differentiable neural implicit
surfaces to higher dimensions, which opens up mechanisms that allow to exploit
geometric transformations in many settings, from animation and surface
evolution to shape morphing and design galleries.
The problem is modeled by a $k$-parameter family of surfaces $S_c$, specified
as a neural network function $f : \mathbb{R}^3 \times \mathbb{R}^k \rightarrow
\mathbb{R}$, where $S_c$ is the zero-level set of the implicit function
$f(\cdot, c) : \mathbb{R}^3 \rightarrow \mathbb{R} $, with $c \in
\mathbb{R}^k$, with variations induced by the control variable $c$. In that
context, restricted to each coordinate of $\mathbb{R}^k$, the underlying
representation is a neural homotopy which is the solution of a general partial
differential equation.
- Abstract(参考訳): 本研究は,滑らかな暗黙表面の動的変動をモデル化するための高次微分を許容するニューラルネットワークの利用について検討する。
この目的のために、微分可能な神経暗黙的表面の表現をより高次元に拡張し、アニメーションや表面進化、形状のモーフィング、デザインギャラリーなど、多くの設定で幾何学的変換を活用できるメカニズムを開放する。
この問題は、ニューラルネットワーク関数 $f : \mathbb{R}^3 \times \mathbb{R}^k \rightarrow \mathbb{R}$, ここで$S_c$は暗黙関数 $f(\cdot, c) : \mathbb{R}^3 \rightarrow \mathbb{R}$, $c \in \mathbb{R}^k$ のゼロレベル集合である。
この文脈では、$\mathbb{R}^k$ の各座標に制限され、基礎となる表現は一般偏微分方程式の解であるニューラルホモトピーである。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Approximation Results for Gradient Descent trained Neural Networks [0.0]
ネットワークは完全に接続された一定の深さ増加幅である。
連続カーネルエラーノルムは、滑らかな関数に必要な自然な滑らかさの仮定の下での近似を意味する。
論文 参考訳(メタデータ) (2023-09-09T18:47:55Z) - Implicit regularization of deep residual networks towards neural ODEs [8.075122862553359]
我々は、ニューラルネットワークに対する深い残留ネットワークの暗黙的な正規化を確立する。
ネットワークがニューラルなODEの離散化であるなら、そのような離散化はトレーニングを通して維持される。
論文 参考訳(メタデータ) (2023-09-03T16:35:59Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - On the Explicit Role of Initialization on the Convergence and Implicit
Bias of Overparametrized Linear Networks [1.0323063834827415]
勾配流下で訓練された単層線形ネットワークの新たな解析法を提案する。
正方形損失はその最適値に指数関数的に収束することを示す。
我々は、トレーニングされたネットワークとmin-norm解の間の距離に基づいて、新しい非漸近上界を導出する。
論文 参考訳(メタデータ) (2021-05-13T15:13:51Z) - A Unifying View on Implicit Bias in Training Linear Neural Networks [31.65006970108761]
線形ニューラルネットワークトレーニングにおける勾配流(無限小ステップサイズの勾配勾配勾配勾配)の暗黙バイアスについて検討する。
本稿では, ニューラルネットワークのテンソルの定式化について検討し, 完全連結型, 対角型, 畳み込み型ネットワークを特殊な場合として提案する。
論文 参考訳(メタデータ) (2020-10-06T06:08:35Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Networks are Convex Regularizers: Exact Polynomial-time Convex
Optimization Formulations for Two-layer Networks [70.15611146583068]
我々は、線形整列ユニット(ReLU)を用いた2層ニューラルネットワークのトレーニングの正確な表現を開発する。
我々の理論は半無限双対性と最小ノルム正規化を利用する。
論文 参考訳(メタデータ) (2020-02-24T21:32:41Z) - Implicit Geometric Regularization for Learning Shapes [34.052738965233445]
生データから直接高忠実度暗黙的ニューラル表現を計算するための新しいパラダイムを提供する。
提案手法は,従来の手法と比較して,高い精度と忠実度を有する暗黙的ニューラル表現の状態を導出することを示す。
論文 参考訳(メタデータ) (2020-02-24T07:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。