論文の概要: GraViT: Transfer Learning with Vision Transformers and MLP-Mixer for Strong Gravitational Lens Discovery
- arxiv url: http://arxiv.org/abs/2509.00226v1
- Date: Fri, 29 Aug 2025 20:26:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.1352
- Title: GraViT: Transfer Learning with Vision Transformers and MLP-Mixer for Strong Gravitational Lens Discovery
- Title(参考訳): GraViT:強力な重力レンズ発見のための視覚変換器とMLPミキサを用いた移動学習
- Authors: René Parlange, Juan C. Cuevas-Tello, Octavio Valenzuela, Omar de J. Cabrera-Rosas, Tomás Verdugo, Anupreeta More, Anton T. Jaelani,
- Abstract要約: 重力レンズ検出のためのPyTorchパイプラインであるGraViTを紹介する。
転送学習が分類性能に与える影響を評価する。
HOLISMOKES VI と SugoHI X のデータセットを用いて10のアーキテクチャを微調整する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gravitational lensing offers a powerful probe into the properties of dark matter and is crucial to infer cosmological parameters. The Legacy Survey of Space and Time (LSST) is predicted to find O(10^5) gravitational lenses over the next decade, demanding automated classifiers. In this work, we introduce GraViT, a PyTorch pipeline for gravitational lens detection that leverages extensive pretraining of state-of-the-art Vision Transformer (ViT) models and MLP-Mixer. We assess the impact of transfer learning on classification performance by examining data quality (source and sample size), model architecture (selection and fine-tuning), training strategies (augmentation, normalization, and optimization), and ensemble predictions. This study reproduces the experiments in a previous systematic comparison of neural networks and provides insights into the detectability of strong gravitational lenses on that common test sample. We fine-tune ten architectures using datasets from HOLISMOKES VI and SuGOHI X, and benchmark them against convolutional baselines, discussing complexity and inference-time analysis.
- Abstract(参考訳): 重力レンズはダークマターの性質を強力に探究し、宇宙のパラメーターを推測するのに重要である。
宇宙と時間のレガシーサーベイ(LSST)は、今後10年間でO(10^5)重力レンズを発見し、自動分類器を必要とすると予測されている。
本研究では,最新のビジョン変換器(ViT)モデルとMLP-Mixerの広範な事前トレーニングを活用する,重力レンズ検出用PyTorchパイプラインであるGraViTを紹介する。
データ品質(ソースとサンプルサイズ)、モデルアーキテクチャ(選択と微調整)、トレーニング戦略(強化、正規化、最適化)、およびアンサンブル予測を用いて、転送学習が分類性能に与える影響を評価する。
本研究は、ニューラルネットワークの以前の系統的な比較で実験を再現し、その実験試料上での強い重力レンズの検出可能性に関する洞察を提供する。
HOLISMOKES VIとSUGOHI Xのデータセットを用いて10のアーキテクチャを微調整し、それらを畳み込みベースラインと比較し、複雑性と推論時間分析について議論する。
関連論文リスト
- Supervised Machine Learning Methods with Uncertainty Quantification for Exoplanet Atmospheric Retrievals from Transmission Spectroscopy [1.6874375111244329]
本稿では,既存の機械学習回帰手法の体系的研究について述べる。
送信スペクトルから外惑星の大気パラメータを抽出するための性能の比較を行った。
WASP-39bのJWST観測のケーススタディにおいて,MLモデルと前処理方式の最良の組み合わせが検証された。
論文 参考訳(メタデータ) (2025-08-07T02:28:21Z) - Image-Based Multi-Survey Classification of Light Curves with a Pre-Trained Vision Transformer [31.76431580841178]
我々は、マルチサーベイ環境での光度分類に、事前訓練された視覚変換器であるSwin Transformer V2の使用について検討する。
Zwicky Transient Facility (ZTF) とAsteroid Terrestrial-impact Last Alert System (ATLAS) のデータを統合するためのさまざまな戦略の評価を行った。
論文 参考訳(メタデータ) (2025-07-15T20:30:21Z) - Exoplanet Classification through Vision Transformers with Temporal Image Analysis [0.0]
我々は、NASAのケプラーミッションからグラミアン・Angular Fields(GAF)とRecurrence Plots(RP)に生光曲線データを変換する手法を提案する。
これらの変換されたイメージはビジョントランスフォーマー(ViT)モデルへの入力として機能し、複雑な時間的依存関係をキャプチャする能力を活用する。
モデルの性能を5倍のクロスバリデーション手法を用いてリコール,精度,F1スコアの指標を用いて評価し,モデルの性能のロバストな推定値を得る。
論文 参考訳(メタデータ) (2025-06-19T20:57:17Z) - Can AI Dream of Unseen Galaxies? Conditional Diffusion Model for Galaxy Morphology Augmentation [4.3933321767775135]
本研究では,機械学習データを拡張するために,現実的な銀河画像を合成するための条件拡散モデルを提案する。
本研究では,本モデルが特定の形態的特徴条件に密着した多彩な高忠実度銀河画像を生成することを示す。
このモデルにより、生成外挿により、よく注釈付けされたデータを未知の領域に投影し、希少なオブジェクト検出を進めることができる。
論文 参考訳(メタデータ) (2025-06-19T11:44:09Z) - Causal Transformer for Fusion and Pose Estimation in Deep Visual Inertial Odometry [1.2289361708127877]
深部視覚-慣性眼振におけるポーズ推定のための因果的視覚-慣性融合変換器 (VIFT) を提案する。
提案手法はエンドツーエンドのトレーニングが可能であり,単眼カメラとIMUのみを必要とする。
論文 参考訳(メタデータ) (2024-09-13T12:21:25Z) - Neural Plasticity-Inspired Multimodal Foundation Model for Earth Observation [48.66623377464203]
我々の新しいアプローチは、脳科学における神経可塑性の概念を活用する、ダイナミックワンフォーオール(DOFA)モデルを導入している。
このダイナミックなハイパーネットワークは、異なる波長に調整され、5つのセンサーのデータに基づいて1つの多目的トランスフォーマーを共同で訓練し、12の異なる地球観測タスクを遂行することを可能にする。
論文 参考訳(メタデータ) (2024-03-22T17:11:47Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - DeepShadows: Separating Low Surface Brightness Galaxies from Artifacts
using Deep Learning [70.80563014913676]
本研究では,低地光度銀河と人工物とを分離する問題に対する畳み込みニューラルネットワーク(CNN)の利用について検討する。
我々は、CNNが低地光度宇宙の研究に非常に有望な道を提供することを示した。
論文 参考訳(メタデータ) (2020-11-24T22:51:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。