論文の概要: Einstein Fields: A Neural Perspective To Computational General Relativity
- arxiv url: http://arxiv.org/abs/2507.11589v1
- Date: Tue, 15 Jul 2025 14:55:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.085337
- Title: Einstein Fields: A Neural Perspective To Computational General Relativity
- Title(参考訳): Einstein Fields: 計算一般相対性理論へのニューラルな視点
- Authors: Sandeep Suresh Cranganore, Andrei Bodnar, Arturs Berzins, Johannes Brandstetter,
- Abstract要約: 本稿では,計算集約的な数値相対性理論を圧縮して暗黙的ニューラルネットワーク重みに圧縮するニューラルネットワーク表現であるEinstein Fieldsを紹介する。
4次元時空の連続モデリング,メッシュ非依存性,ストレージ効率,微分精度,使いやすさなど,優れた可能性を示す。
我々はオープンソースのJAXベースのライブラリをリリースし、数値相対性理論に対するよりスケーラブルで表現力豊かなアプローチの道を開いた。
- 参考スコア(独自算出の注目度): 10.933301546724026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Einstein Fields, a neural representation that is designed to compress computationally intensive four-dimensional numerical relativity simulations into compact implicit neural network weights. By modeling the \emph{metric}, which is the core tensor field of general relativity, Einstein Fields enable the derivation of physical quantities via automatic differentiation. However, unlike conventional neural fields (e.g., signed distance, occupancy, or radiance fields), Einstein Fields are \emph{Neural Tensor Fields} with the key difference that when encoding the spacetime geometry of general relativity into neural field representations, dynamics emerge naturally as a byproduct. Einstein Fields show remarkable potential, including continuum modeling of 4D spacetime, mesh-agnosticity, storage efficiency, derivative accuracy, and ease of use. We address these challenges across several canonical test beds of general relativity and release an open source JAX-based library, paving the way for more scalable and expressive approaches to numerical relativity. Code is made available at https://github.com/AndreiB137/EinFields
- Abstract(参考訳): 計算集約的な4次元数値相対性理論シミュレーションをコンパクトな暗黙的ニューラルネットワーク重みに圧縮するニューラルネットワーク表現であるEinstein Fieldsを紹介する。
一般相対性理論の中核テンソル場である 'emph{metric} をモデル化することにより、アインシュタイン場は自動微分による物理量の導出を可能にする。
しかし、従来のニューラルネットワーク(例えば、符号付き距離、占有、放射場)とは異なり、アインシュタイン場は、一般相対性理論の時空幾何学をニューラルネットワーク表現に符号化する場合、副生成物として自然に現れる。
アインシュタイン場は、4次元時空の連続モデリング、メッシュ非依存性、記憶効率、微分精度、使いやすさなど、顕著なポテンシャルを示している。
一般相対性理論の標準的なテストベッドにまたがるこれらの課題に対処し、オープンソースのJAXベースのライブラリをリリースし、よりスケーラブルで表現力のある数値相対性理論へのアプローチの道を開いた。
コードはhttps://github.com/AndreiB137/EinFieldsで公開されている。
関連論文リスト
- Gravity from entropy [0.0]
重力はエントロピー作用結合物質場と幾何学から導かれる。
提案されたエントロピー作用は、時空の計量と物質場によって誘導される計量の間の量子相対エントロピーである。
論文 参考訳(メタデータ) (2024-08-26T16:19:37Z) - PAC-NeRF: Physics Augmented Continuum Neural Radiance Fields for
Geometry-Agnostic System Identification [64.61198351207752]
ビデオからのシステム同定(オブジェクトの物理的パラメータを推定する)への既存のアプローチは、既知のオブジェクトジオメトリを仮定する。
本研究では,オブジェクトの形状やトポロジを仮定することなく,多視点ビデオの集合から物理系を特徴付けるパラメータを同定することを目的とする。
マルチビュービデオから高ダイナミックな物体の未知の幾何学的パラメータと物理的パラメータを推定するために,Physics Augmented Continuum Neural Radiance Fields (PAC-NeRF)を提案する。
論文 参考訳(メタデータ) (2023-03-09T18:59:50Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Implicit Neural Spatial Representations for Time-dependent PDEs [29.404161110513616]
Inlicit Neural Spatial Representation (INSR) は空間依存ベクトル場の効果的な表現として登場した。
本研究は,INSRを用いた時間依存型PDEの解法について検討する。
論文 参考訳(メタデータ) (2022-09-30T22:46:40Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z) - AutoIP: A United Framework to Integrate Physics into Gaussian Processes [15.108333340471034]
あらゆる微分方程式をガウス過程に統合できる枠組みを提案する。
本手法は,シミュレーションと実世界の応用の両方において,バニラGPの改善を示す。
論文 参考訳(メタデータ) (2022-02-24T19:02:14Z) - Towards Quantum Graph Neural Networks: An Ego-Graph Learning Approach [47.19265172105025]
グラフ構造化データのための新しいハイブリッド量子古典アルゴリズムを提案し、これをEgo-graph based Quantum Graph Neural Network (egoQGNN)と呼ぶ。
egoQGNNはテンソル積とユニティ行列表現を用いてGNN理論フレームワークを実装し、必要なモデルパラメータの数を大幅に削減する。
このアーキテクチャは、現実世界のデータからヒルベルト空間への新しいマッピングに基づいている。
論文 参考訳(メタデータ) (2022-01-13T16:35:45Z) - Quantum Mathematics in Artificial Intelligence [4.958574440736237]
本稿では,人工知能(AI)の応用例を含む,一般的な数学分野について述べる。
これらのアプローチのいくつかは量子ハードウェアに実装できる可能性がある。
論文 参考訳(メタデータ) (2021-01-12T01:35:56Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。