論文の概要: Strong Gravitational Lensing Parameter Estimation with Vision
Transformer
- arxiv url: http://arxiv.org/abs/2210.04143v1
- Date: Sun, 9 Oct 2022 02:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 16:08:54.751422
- Title: Strong Gravitational Lensing Parameter Estimation with Vision
Transformer
- Title(参考訳): 視覚トランスフォーマによる強重力レンズパラメータ推定
- Authors: Kuan-Wei Huang, Geoff Chih-Fan Chen, Po-Wen Chang, Sheng-Chieh Lin,
Chia-Jung Hsu, Vishal Thengane, Joshua Yao-Yu Lin
- Abstract要約: 31,200枚の強く照らされたクエーサー画像を用いて、我々は初めて強い重力レンズのシミュレーションにビジョントランスフォーマー(ViT)を用いた。
我々は、ViTがCNNと比較して競争力のある結果に達する可能性を示し、特にいくつかのレンズパラメータに長けていることを示す。
- 参考スコア(独自算出の注目度): 2.0996675418033623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantifying the parameters and corresponding uncertainties of hundreds of
strongly lensed quasar systems holds the key to resolving one of the most
important scientific questions: the Hubble constant ($H_{0}$) tension. The
commonly used Markov chain Monte Carlo (MCMC) method has been too
time-consuming to achieve this goal, yet recent work has shown that convolution
neural networks (CNNs) can be an alternative with seven orders of magnitude
improvement in speed. With 31,200 simulated strongly lensed quasar images, we
explore the usage of Vision Transformer (ViT) for simulated strong
gravitational lensing for the first time. We show that ViT could reach
competitive results compared with CNNs, and is specifically good at some
lensing parameters, including the most important mass-related parameters such
as the center of lens $\theta_{1}$ and $\theta_{2}$, the ellipticities $e_1$
and $e_2$, and the radial power-law slope $\gamma'$. With this promising
preliminary result, we believe the ViT (or attention-based) network
architecture can be an important tool for strong lensing science for the next
generation of surveys. The open source of our code and data is in
\url{https://github.com/kuanweih/strong_lensing_vit_resnet}.
- Abstract(参考訳): 数百の強いレンズを持つクエーサー系のパラメータと対応する不確かさを定量化することは、最も重要な科学的問題であるハッブル定数(h_{0}$)の解決の鍵である。
一般的に使われているマルコフ連鎖モンテカルロ法(MCMC)は、この目標を達成するのに時間がかかりすぎているが、最近の研究は、畳み込みニューラルネットワーク(CNN)が7桁の速度改善の代替となることを示した。
31,200枚の強く照らされたクエーサー画像を用いて、我々は初めて強い重力レンズのシミュレーションにビジョントランスフォーマー(ViT)を用いた。
vit が cnn と比較して競争力のある結果に到達できることを示し,特にレンズ中心値 $\theta_{1}$ や $\theta_{2}$,楕円率 $e_1$ や $e_2$,ラジアルパワーロームスロープ $\gamma'$ など,いくつかのレンズパラメータが優れていることを示した。
この有望な予備的な結果により、ViT(または注意に基づく)ネットワークアーキテクチャは、次世代のサーベイにとって強力なレンズ科学にとって重要なツールになり得ると信じている。
コードとデータのオープンソースは \url{https://github.com/kuanweih/strong_lensing_vit_resnet} です。
関連論文リスト
- CSST Strong Lensing Preparation: a Framework for Detecting Strong Lenses in the Multi-color Imaging Survey by the China Survey Space Telescope (CSST) [25.468504540327498]
強い重力レンズはダークマターとダークエネルギー特性を研究する強力なツールである。
我々は,階層型視覚変換器をベースとしたスライディングウインドウ技術を用いて,画像全体に強いレンズシステムを求めるフレームワークを開発した。
我々のフレームワークは、それぞれ0.98と0.90の精度とリコール率を達成する。
論文 参考訳(メタデータ) (2024-04-02T09:44:30Z) - Selection functions of strong lens finding neural networks [0.0]
レンズ探索ニューラルネットワークの選択関数の理解は、強い重力レンズ系の大きな試料の可能性を十分に実現するための鍵となる。
我々は、銀河ギャラクシーと銀河クエーサーのレンズ探索ニューラルネットワークのトレーニングに使用される3つのトレーニングデータセットを使用する。
レンズ付きクエーサーを見つけるために訓練されたモデルは、レンズ付き銀河を見つけるために訓練されたモデルよりも高いレンズ楕円性を好むことを示している。
論文 参考訳(メタデータ) (2023-07-19T18:00:00Z) - Streamlined Lensed Quasar Identification in Multiband Images via
Ensemble Networks [34.82692226532414]
強いレンズを経験するクエーサーは、宇宙膨張速度、暗黒物質、およびクエーサーホスト銀河に関連する主題に独自の視点を与える。
我々は,現実的な銀河・クエーサーレンズシミュレーションに基づいて訓練された最先端畳み込みネットワーク(CNN)を組み込むことにより,新しいアプローチを開発した。
我々は親標本として約6000万個の情報源を検索し、光度測定によるクエーサーを$theta_mathrmE5$arcsecのEinstein radiiで発見した後、これを892,609個に減らした。
論文 参考訳(メタデータ) (2023-07-03T15:09:10Z) - RangeViT: Towards Vision Transformers for 3D Semantic Segmentation in
Autonomous Driving [80.14669385741202]
視覚変換器(ViT)は多くの画像ベースのベンチマークで最先端の結果を得た。
ViTはトレーニングが難しいことで知られており、強力な表現を学ぶために大量のトレーニングデータを必要とする。
提案手法はRangeViTと呼ばれ,nuScenes や Semantic KITTI において既存のプロジェクションベースの手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-01-24T18:50:48Z) - When Spectral Modeling Meets Convolutional Networks: A Method for
Discovering Reionization-era Lensed Quasars in Multi-band Imaging Data [0.0]
画像に基づく深層学習により実装された新しい空間幾何学的ベト基準を導入する。
我々は、この手法の最初の応用を、イオン化時代のレンズ付きクエーサーの体系的な探索に適用する。
トレーニングデータセットは、実際の銀河画像の上に偏向した点光源の光を塗って、現実的な銀河クエーサーレンズモデルを生成することで構築される。
論文 参考訳(メタデータ) (2022-11-26T11:27:13Z) - Cosmology from Galaxy Redshift Surveys with PointNet [65.89809800010927]
宇宙論において、銀河赤方偏移サーベイは、宇宙における位置の置換不変な集まりに類似している。
我々は、ポイントクラウドデータから直接、宇宙パラメータの値を回帰するために、textitPointNetのようなニューラルネットワークを使用します。
我々のPointNetsの実装は、$mathcalO(104) - MathcalO(105)$銀河の入力を一度に分析できるので、この応用の初期の作業は、およそ2桁の精度で改善される。
論文 参考訳(メタデータ) (2022-11-22T15:35:05Z) - Neural Inference of Gaussian Processes for Time Series Data of Quasars [72.79083473275742]
クエーサースペクトルを完全に記述できる新しいモデルを提案する。
また、$textitNeural Inference$というガウス的プロセスパラメータの推論の新しいメソッドも導入しています。
CDRWモデルとNeural Inferenceの組み合わせはベースラインのDRWとMLEを大きく上回っている。
論文 参考訳(メタデータ) (2022-11-17T13:01:26Z) - InternImage: Exploring Large-Scale Vision Foundation Models with
Deformable Convolutions [95.94629864981091]
この研究は、パラメータの増加やViTsのようなトレーニングデータから得られるインターンイメージと呼ばれる、CNNベースの新しい大規模ファンデーションモデルを提案する。
提案されたInternImageは、従来のCNNの厳格な帰納バイアスを低減し、ViTのような大規模データから、より強く堅牢なパターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-11-10T18:59:04Z) - Parameterization of Cross-Token Relations with Relative Positional
Encoding for Vision MLP [52.25478388220691]
視覚多層パーセプトロン(MLP)はコンピュータビジョンタスクにおいて有望な性能を示す。
トークンミキシングレイヤを使用して、トランスフォーマーが使用するマルチヘッド自己保持機構とは対照的に、クロストークンインタラクションをキャプチャする。
トークン混合のためのクロストークン関係を効率的に符号化する新しい位置空間ゲーティングユニット(PoSGU)を提案する。
論文 参考訳(メタデータ) (2022-07-15T04:18:06Z) - Large-Scale Gravitational Lens Modeling with Bayesian Neural Networks
for Accurate and Precise Inference of the Hubble Constant [0.0]
我々は、数百の時間遅延重力レンズのモデリングにおける近似ベイズニューラルネットワーク(BNN)の使用について検討する。
200個のテストセットレンズの組み合わせで0.5$textrmkm s-1 textrm Mpc-1$$0.7%$の精度が得られる。
私たちのパイプラインは、レンズモデリングにおけるアンサンブルレベルの体系を探索するための有望なツールです。
論文 参考訳(メタデータ) (2020-11-30T19:00:20Z) - DeepShadows: Separating Low Surface Brightness Galaxies from Artifacts
using Deep Learning [70.80563014913676]
本研究では,低地光度銀河と人工物とを分離する問題に対する畳み込みニューラルネットワーク(CNN)の利用について検討する。
我々は、CNNが低地光度宇宙の研究に非常に有望な道を提供することを示した。
論文 参考訳(メタデータ) (2020-11-24T22:51:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。