論文の概要: Accurate Differential Operators for Hybrid Neural Fields
- arxiv url: http://arxiv.org/abs/2312.05984v1
- Date: Sun, 10 Dec 2023 20:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:42:02.086128
- Title: Accurate Differential Operators for Hybrid Neural Fields
- Title(参考訳): ハイブリッドニューラルフィールドのための高精度微分作用素
- Authors: Aditya Chetan, Guandao Yang, Zichen Wang, Steve Marschner, Bharath
Hariharan
- Abstract要約: レンダリングとシミュレーションでは、ハイブリッドニューラルネットワークは顕著で不合理なアーティファクトを引き起こす可能性がある。
本稿では,局所的なフィールドフィッティングを用いて,事前学習したニューラルネットワークからより正確な導関数を得るポストホック演算子を提案する。
また、初期信号を保持しながら直接神経誘導体を精製する自己教師型微調整手法を提案する。
- 参考スコア(独自算出の注目度): 33.66664168359758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural fields have become widely used in various fields, from shape
representation to neural rendering, and for solving partial differential
equations (PDEs). With the advent of hybrid neural field representations like
Instant NGP that leverage small MLPs and explicit representations, these models
train quickly and can fit large scenes. Yet in many applications like rendering
and simulation, hybrid neural fields can cause noticeable and unreasonable
artifacts. This is because they do not yield accurate spatial derivatives
needed for these downstream applications. In this work, we propose two ways to
circumvent these challenges. Our first approach is a post hoc operator that
uses local polynomial-fitting to obtain more accurate derivatives from
pre-trained hybrid neural fields. Additionally, we also propose a
self-supervised fine-tuning approach that refines the neural field to yield
accurate derivatives directly while preserving the initial signal. We show the
application of our method on rendering, collision simulation, and solving PDEs.
We observe that using our approach yields more accurate derivatives, reducing
artifacts and leading to more accurate simulations in downstream applications.
- Abstract(参考訳): ニューラルネットワークは、形状表現からニューラルレンダリング、偏微分方程式(PDE)の解法など、様々な分野で広く使われている。
小さなMLPと明示的な表現を活用するInstant NGPのようなハイブリッドニューラルネットワーク表現の出現により、これらのモデルは迅速にトレーニングされ、大きなシーンに適合する。
しかし、レンダリングやシミュレーションのような多くのアプリケーションでは、ハイブリッドニューラルネットワークは顕著で不合理なアーティファクトを引き起こす可能性がある。
これは、これらの下流アプリケーションに必要な正確な空間微分が得られないためである。
本研究では,これらの課題を回避する2つの方法を提案する。
我々の最初のアプローチは、事前訓練されたハイブリッドニューラルネットワークからより正確な導出を得るために局所多項式フィッティングを使用するポストホック演算子である。
さらに,初期信号を維持しながら正確な導関数を直接生成するために,神経場を洗練する自己教師付き微調整手法を提案する。
提案手法のレンダリング, 衝突シミュレーション, PDE の解法への応用について述べる。
提案手法を用いることで, より正確な導関数が得られ, アーティファクトが低減され, 下流のアプリケーションでより正確なシミュレーションがもたらされる。
関連論文リスト
- What You See is Not What You Get: Neural Partial Differential Equations and The Illusion of Learning [0.0]
科学機械学習のための微分可能プログラミングは、第一原理物理学から派生したニューラルネットワークをPDE内に組み込む。
コミュニティでは、NeuralPDEはブラックボックスモデルよりも信頼性が高く、一般化可能であると広く仮定されている。
我々は、NeuralPDEと差別化可能なプログラミングモデルは、PDEシミュレーションで私たちが考えているように物理的に解釈可能であるか?
論文 参考訳(メタデータ) (2024-11-22T18:04:46Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - NeuralClothSim: Neural Deformation Fields Meet the Thin Shell Theory [70.10550467873499]
薄型シェルを用いた新しい擬似布シミュレータであるNeuralClothSimを提案する。
メモリ効率の高い解法はニューラル変形場と呼ばれる新しい連続座標に基づく表面表現を演算する。
論文 参考訳(メタデータ) (2023-08-24T17:59:54Z) - Efficient physics-informed neural networks using hash encoding [0.0]
物理インフォームドニューラルネットワーク(PINN)は科学計算において多くの注目を集めている。
トレーニング効率を向上させるために,マルチレゾリューションハッシュ符号化をPINNに組み込むことを提案する。
提案手法は,バーガーズ方程式,ヘルムホルツ方程式,ナビエ・ストークス方程式の3つの問題について検証した。
論文 参考訳(メタデータ) (2023-02-26T20:00:23Z) - Semi-Implicit Neural Solver for Time-dependent Partial Differential
Equations [4.246966726709308]
本稿では,PDEの任意のクラスに対して,データ駆動方式で最適な反復スキームを学習するためのニューラルソルバを提案する。
従来の反復解法に類似したニューラルソルバの正当性と収束性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-09-03T12:03:10Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。