論文の概要: Phase Transitions, Distance Functions, and Implicit Neural
Representations
- arxiv url: http://arxiv.org/abs/2106.07689v1
- Date: Mon, 14 Jun 2021 18:13:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:08:50.690063
- Title: Phase Transitions, Distance Functions, and Implicit Neural
Representations
- Title(参考訳): 相転移、距離関数、暗黙的神経表現
- Authors: Yaron Lipman
- Abstract要約: Inlicit Neural Representations (INRs) は幾何学的深層学習と3次元視覚において多くの下流の応用に役立っている。
ログ変換は距離関数に収束する一方、適切な占有関数に収束する密度関数を学習するINRの訓練における損失を提案する。
- 参考スコア(独自算出の注目度): 26.633795221150475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representing surfaces as zero level sets of neural networks recently emerged
as a powerful modeling paradigm, named Implicit Neural Representations (INRs),
serving numerous downstream applications in geometric deep learning and 3D
vision. Training INRs previously required choosing between occupancy and
distance function representation and different losses with unknown limit
behavior and/or bias. In this paper we draw inspiration from the theory of
phase transitions of fluids and suggest a loss for training INRs that learns a
density function that converges to a proper occupancy function, while its log
transform converges to a distance function. Furthermore, we analyze the limit
minimizer of this loss showing it satisfies the reconstruction constraints and
has minimal surface perimeter, a desirable inductive bias for surface
reconstruction. Training INRs with this new loss leads to state-of-the-art
reconstructions on a standard benchmark.
- Abstract(参考訳): 表面をゼロレベルのニューラルネットワークとして表現することは、最近、Implicit Neural Representations (INRs)と呼ばれる強力なモデリングパラダイムとして登場し、幾何学的ディープラーニングと3Dビジョンにおける多くの下流のアプリケーションに役立っている。
トレーニングINRは以前、占有率と距離関数の表現の選択と、未知の制限行動と/またはバイアスで異なる損失を選択する必要があった。
本稿では,流体の相転移の理論から着想を得て,その対数変換が距離関数に収束する間,適切な占有関数に収束する密度関数を学ぶ訓練用インサーの損失を提案する。
さらに, この損失の限界最小化は, 再構成制約を満たし, 表面近傍が最小であり, 表面再構成に望ましいインダクティブバイアスであることを示す。
この新しい損失によるinrsのトレーニングは、標準ベンチマークで最先端の再構築につながる。
関連論文リスト
- Topological obstruction to the training of shallow ReLU neural networks [0.0]
損失ランドスケープの幾何学と単純なニューラルネットワークの最適化軌跡との相互作用について検討する。
本稿では,勾配流を用いた浅部ReLUニューラルネットワークの損失景観におけるトポロジカル障害物の存在を明らかにする。
論文 参考訳(メタデータ) (2024-10-18T19:17:48Z) - Principal Component Flow Map Learning of PDEs from Incomplete, Limited, and Noisy Data [0.0]
本稿では,力学系の進化をモデル化する計算手法を提案する。
本研究では,高次元非一様格子上の部分観測偏微分方程式(PDE)をモデル化する上での課題に着目する。
本稿では、状態変数や計算領域のサブセットでのみ利用可能なノイズと制限付きデータを用いたPDEモデリングに適したニューラルネットワーク構造を提案する。
論文 参考訳(メタデータ) (2024-07-15T16:06:20Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Supervised Contrastive Representation Learning: Landscape Analysis with
Unconstrained Features [33.703796571991745]
最近の研究では、ゼロトレーニングを超えて訓練された過度パラメータ化されたディープニューラルネットワークが、最終層に特徴的な構造パターンを示すことが明らかになっている。
これらの結果から,これらのネットワークにおける最終層出力はクラス内変動が最小限であることがわかった。
論文 参考訳(メタデータ) (2024-02-29T06:02:45Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Neural Poisson Surface Reconstruction: Resolution-Agnostic Shape
Reconstruction from Point Clouds [53.02191521770926]
我々は,3次元形状を点から復元するという課題に対処する形状再構成アーキテクチャであるニューラルポアソン表面再構成(nPSR)を導入する。
nPSRには2つの大きな利点がある: まず、高分解能評価において同等の性能を達成しつつ、低分解能データの効率的なトレーニングを可能にする。
全体として、ニューラル・ポアソン表面の再構成は、形状再構成における古典的なディープニューラルネットワークの限界を改良するだけでなく、再構築品質、走行時間、分解能非依存の観点からも優れた結果が得られる。
論文 参考訳(メタデータ) (2023-08-03T13:56:07Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Critical Investigation of Failure Modes in Physics-informed Neural
Networks [0.9137554315375919]
合成定式化による物理インフォームドニューラルネットワークは、最適化が難しい非学習損失面を生成することを示す。
また,2つの楕円問題に対する2つのアプローチを,より複雑な目標解を用いて評価する。
論文 参考訳(メタデータ) (2022-06-20T18:43:35Z) - Extended Unconstrained Features Model for Exploring Deep Neural Collapse [59.59039125375527]
近年、ディープニューラルネットワークで「神経崩壊」(NC)と呼ばれる現象が経験的に観察されている。
最近の論文は、単純化された「制約なし特徴モデル」を最適化する際に、この構造を持つ最小化器が出現することを示している。
本稿では, 正規化MSE損失に対するUDFについて検討し, クロスエントロピーの場合よりも最小化器の特徴がより構造化可能であることを示す。
論文 参考訳(メタデータ) (2022-02-16T14:17:37Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。