論文の概要: Accurate Differential Operators for Hybrid Neural Fields
- arxiv url: http://arxiv.org/abs/2312.05984v1
- Date: Sun, 10 Dec 2023 20:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:42:02.086128
- Title: Accurate Differential Operators for Hybrid Neural Fields
- Title(参考訳): ハイブリッドニューラルフィールドのための高精度微分作用素
- Authors: Aditya Chetan, Guandao Yang, Zichen Wang, Steve Marschner, Bharath
Hariharan
- Abstract要約: レンダリングとシミュレーションでは、ハイブリッドニューラルネットワークは顕著で不合理なアーティファクトを引き起こす可能性がある。
本稿では,局所的なフィールドフィッティングを用いて,事前学習したニューラルネットワークからより正確な導関数を得るポストホック演算子を提案する。
また、初期信号を保持しながら直接神経誘導体を精製する自己教師型微調整手法を提案する。
- 参考スコア(独自算出の注目度): 33.66664168359758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural fields have become widely used in various fields, from shape
representation to neural rendering, and for solving partial differential
equations (PDEs). With the advent of hybrid neural field representations like
Instant NGP that leverage small MLPs and explicit representations, these models
train quickly and can fit large scenes. Yet in many applications like rendering
and simulation, hybrid neural fields can cause noticeable and unreasonable
artifacts. This is because they do not yield accurate spatial derivatives
needed for these downstream applications. In this work, we propose two ways to
circumvent these challenges. Our first approach is a post hoc operator that
uses local polynomial-fitting to obtain more accurate derivatives from
pre-trained hybrid neural fields. Additionally, we also propose a
self-supervised fine-tuning approach that refines the neural field to yield
accurate derivatives directly while preserving the initial signal. We show the
application of our method on rendering, collision simulation, and solving PDEs.
We observe that using our approach yields more accurate derivatives, reducing
artifacts and leading to more accurate simulations in downstream applications.
- Abstract(参考訳): ニューラルネットワークは、形状表現からニューラルレンダリング、偏微分方程式(PDE)の解法など、様々な分野で広く使われている。
小さなMLPと明示的な表現を活用するInstant NGPのようなハイブリッドニューラルネットワーク表現の出現により、これらのモデルは迅速にトレーニングされ、大きなシーンに適合する。
しかし、レンダリングやシミュレーションのような多くのアプリケーションでは、ハイブリッドニューラルネットワークは顕著で不合理なアーティファクトを引き起こす可能性がある。
これは、これらの下流アプリケーションに必要な正確な空間微分が得られないためである。
本研究では,これらの課題を回避する2つの方法を提案する。
我々の最初のアプローチは、事前訓練されたハイブリッドニューラルネットワークからより正確な導出を得るために局所多項式フィッティングを使用するポストホック演算子である。
さらに,初期信号を維持しながら正確な導関数を直接生成するために,神経場を洗練する自己教師付き微調整手法を提案する。
提案手法のレンダリング, 衝突シミュレーション, PDE の解法への応用について述べる。
提案手法を用いることで, より正確な導関数が得られ, アーティファクトが低減され, 下流のアプリケーションでより正確なシミュレーションがもたらされる。
関連論文リスト
- A physics-informed transformer neural operator for learning generalized solutions of initial boundary value problems [0.0]
我々は物理インフォームド・トランスフォーマー・ニューラル演算子(PINTO)を開発し、初期条件と境界条件を効率的に一般化する。
PINTOアーキテクチャは、エンジニアリングアプリケーションで使われる重要な方程式の解をシミュレートするために用いられる。
我々のモデルは、トレーニングコロケーションポイントに含まれない時間ステップにおける対流とバーガースの方程式を正確に解くことができる。
論文 参考訳(メタデータ) (2024-12-12T07:22:02Z) - Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - What You See is Not What You Get: Neural Partial Differential Equations and The Illusion of Learning [0.0]
科学機械学習のための微分可能プログラミングは、第一原理物理学から派生したニューラルネットワークをPDE内に組み込む。
コミュニティでは、NeuralPDEはブラックボックスモデルよりも信頼性が高く、一般化可能であると広く仮定されている。
我々は、NeuralPDEと差別化可能なプログラミングモデルは、PDEシミュレーションで私たちが考えているように物理的に解釈可能であるか?
論文 参考訳(メタデータ) (2024-11-22T18:04:46Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
我々は、訓練されたニューラル演算子におけるベイズの不確実性定量化を近似するための新しいフレームワークLUNOを紹介する。
我々の手法はモデル線形化を利用して(ガウス的)重み空間の不確実性をニューラル作用素の予測に推し進める。
これは関数型プログラミングのカリー化の概念の確率的バージョンとして解釈でき、関数値(ガウス的)ランダムプロセスの信念を導出することを示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - NeuralClothSim: Neural Deformation Fields Meet the Thin Shell Theory [70.10550467873499]
薄型シェルを用いた新しい擬似布シミュレータであるNeuralClothSimを提案する。
メモリ効率の高い解法はニューラル変形場と呼ばれる新しい連続座標に基づく表面表現を演算する。
論文 参考訳(メタデータ) (2023-08-24T17:59:54Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。