論文の概要: Revealing the 3D Cosmic Web through Gravitationally Constrained Neural Fields
- arxiv url: http://arxiv.org/abs/2504.15262v1
- Date: Mon, 21 Apr 2025 17:43:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 14:21:56.947767
- Title: Revealing the 3D Cosmic Web through Gravitationally Constrained Neural Fields
- Title(参考訳): 重力拘束型ニューラルネットワークによる3次元宇宙Webの探索
- Authors: Brandon Zhao, Aviad Levis, Liam Connor, Pratul P. Srinivasan, Katherine L. Bouman,
- Abstract要約: 弱い重力レンズは、主に宇宙におけるダークマターの重力効果によって引き起こされる銀河形状のわずかな歪みである。
我々は、宇宙の暗黒物質場の3次元マップを再構成するために、2次元の望遠鏡画像から弱いレンズ信号を反転させようとする。
本稿では, 連続物質分布を柔軟にモデル化するために, 重力拘束型ニューラルネットワークを用いた手法を提案する。
- 参考スコア(独自算出の注目度): 15.645523903662033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weak gravitational lensing is the slight distortion of galaxy shapes caused primarily by the gravitational effects of dark matter in the universe. In our work, we seek to invert the weak lensing signal from 2D telescope images to reconstruct a 3D map of the universe's dark matter field. While inversion typically yields a 2D projection of the dark matter field, accurate 3D maps of the dark matter distribution are essential for localizing structures of interest and testing theories of our universe. However, 3D inversion poses significant challenges. First, unlike standard 3D reconstruction that relies on multiple viewpoints, in this case, images are only observed from a single viewpoint. This challenge can be partially addressed by observing how galaxy emitters throughout the volume are lensed. However, this leads to the second challenge: the shapes and exact locations of unlensed galaxies are unknown, and can only be estimated with a very large degree of uncertainty. This introduces an overwhelming amount of noise which nearly drowns out the lensing signal completely. Previous approaches tackle this by imposing strong assumptions about the structures in the volume. We instead propose a methodology using a gravitationally-constrained neural field to flexibly model the continuous matter distribution. We take an analysis-by-synthesis approach, optimizing the weights of the neural network through a fully differentiable physical forward model to reproduce the lensing signal present in image measurements. We showcase our method on simulations, including realistic simulated measurements of dark matter distributions that mimic data from upcoming telescope surveys. Our results show that our method can not only outperform previous methods, but importantly is also able to recover potentially surprising dark matter structures.
- Abstract(参考訳): 弱い重力レンズは、主に宇宙におけるダークマターの重力効果によって引き起こされる銀河形状のわずかな歪みである。
我々の研究は、宇宙の暗黒物質領域の3Dマップを再構成するために、2次元望遠鏡画像から弱いレンズ信号を反転させようとしている。
インバージョンは通常、ダークマター場の2次元投影を生成するが、ダークマター分布の正確な3次元マップは、宇宙の興味構造やテスト理論のローカライズに不可欠である。
しかし、3Dインバージョンには大きな課題がある。
第一に、複数の視点に依存する標準的な3D再構成とは異なり、この場合、画像は単一の視点からのみ観察される。
この課題は、体積全体の銀河放出物質がどのようにレンズされているかを観察することで部分的に解決することができる。
しかし、これは第2の挑戦に繋がる: 未確認の銀河の形状と正確な位置は未知であり、非常に大きな不確実性でしか推定できない。
これは圧倒的な量のノイズを生じさせ、レンズ信号を完全に消し去ってしまう。
それまでのアプローチでは、体積の構造について強い仮定を課すことで、この問題に対処していた。
代わりに、重力に制約されたニューラルネットワークを用いて連続物質分布を柔軟にモデル化する手法を提案する。
我々は、画像計測におけるレンズ信号の再現のために、完全に微分可能な物理フォワードモデルを用いてニューラルネットワークの重みを最適化する、分析バイシンセシスアプローチを採用する。
本手法は,今後の望遠鏡による観測データに擬似した暗黒物質分布の実測値を含むシミュレーションについて紹介する。
以上の結果から,本手法は従来の手法より優れているだけでなく,潜在的に驚くべき暗黒物質構造を復元できる可能性が示唆された。
関連論文リスト
- A deep-learning algorithm to disentangle self-interacting dark matter and AGN feedback models [0.0]
本研究では,ダークマターの自己反応が天体物理学的フィードバックとどのように異なるのかを「学習」する機械学習手法を提案する。
我々は、流体力学シミュレーションから銀河団の画像に畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2024-05-27T18:00:49Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Single View Refractive Index Tomography with Neural Fields [16.578244661163513]
本稿では, 屈折体全体に散在する光源の事前知識を活用し, 単視点屈折率トモグラフィー問題の曖昧化を支援する手法を提案する。
提案手法の有効性を, 模擬屈折場を再構成し, 光源分布が回復場に与える影響を解析し, 模擬暗黒物質マッピング問題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-09-08T17:01:34Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Self-calibrating Photometric Stereo by Neural Inverse Rendering [88.67603644930466]
本稿では3次元オブジェクト再構成のための非校正光度ステレオの課題に取り組む。
本研究では,物体形状,光方向,光強度を協調的に最適化する手法を提案する。
本手法は,実世界のデータセット上での光推定と形状復元における最先端の精度を示す。
論文 参考訳(メタデータ) (2022-07-16T02:46:15Z) - Strong Lensing Source Reconstruction Using Continuous Neural Fields [3.604982738232833]
本研究では、連続したニューラルネットワークを用いて、源銀河の複雑な形態を非パラメトリックに再構成する手法を提案する。
本研究では,高解像度レンズ画像を対象としたシミュレーションデータを用いた実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-06-29T18:00:01Z) - Shadows Shed Light on 3D Objects [23.14510850163136]
我々は、物体の3次元形状、ポーズ、光源の位置を推測できる微分可能な画像形成モデルを作成する。
我々のアプローチは、地上の暗黒マスクが未知の現実世界の画像に対して堅牢である。
論文 参考訳(メタデータ) (2022-06-17T19:58:11Z) - 3D Magic Mirror: Clothing Reconstruction from a Single Image via a
Causal Perspective [96.65476492200648]
本研究は, 自己監督型3D衣料の再構築手法について検討することを目的とする。
1枚の2D画像から人間の衣服の形状やテクスチャを復元する。
論文 参考訳(メタデータ) (2022-04-27T17:46:55Z) - Gravitationally Lensed Black Hole Emission Tomography [21.663531093434127]
重力レンズを用いた新しいトモグラフィ手法であるBH-NeRFを提案し,ブラックホール近傍の連続3次元放射場を復元する。
本手法は,座標ベースニューラルネットワークによりパラメータ化された連続体積関数を用いて未知の放出場を捕捉する。
この研究は、銀河中心にある超大質量ブラックホールの周囲の進化する3D放射を、イベント・ホライゾン望遠鏡でどのように測定するかを示す最初のステップである。
論文 参考訳(メタデータ) (2022-04-07T20:09:51Z) - Neural Reflectance for Shape Recovery with Shadow Handling [88.67603644930466]
本論文は,非ランベルト的かつ空間的に変化する表面材料を用いて,シーンの形状を復元することを目的とする。
本研究では, 未知の3次元形状と未知の面点の両方をパラメータ化するために, 座標に基づく深部反射率(多層パーセプトロン)を提案する。
このネットワークは、観測された光度差と表面上の影を利用して、表面形状と一般的な非ランベルト反射率の両方を回復することができる。
論文 参考訳(メタデータ) (2022-03-24T07:57:20Z) - {\phi}-SfT: Shape-from-Template with a Physics-Based Deformation Model [69.27632025495512]
Shape-from-Template (SfT) 法では、単一の単眼RGBカメラから3次元表面の変形を推定する。
本稿では,物理シミュレーションによる2次元観察を解説する新しいSfT手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。