論文の概要: Applying Vision Transformers on Spectral Analysis of Astronomical Objects
- arxiv url: http://arxiv.org/abs/2506.00294v1
- Date: Fri, 30 May 2025 22:53:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.676283
- Title: Applying Vision Transformers on Spectral Analysis of Astronomical Objects
- Title(参考訳): 天体の分光分析における視覚変換器の適用
- Authors: Luis Felipe Strano Moraes, Ignacio Becker, Pavlos Protopapas, Guillermo Cabrera-Vives,
- Abstract要約: 我々は、SDSSとLAMOSTによる数百万のスペクトルを用いて、ImageNetで事前訓練されたViTを微調整し、スペクトルプロットとして表現する。
我々は、Support Vector MachinesやRandom Forestsよりも高い分類精度を実現し、AstroCLIPのスペクトルエンコーダに匹敵するR2$の値を得る。
- 参考スコア(独自算出の注目度): 1.4061979259370274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We apply pre-trained Vision Transformers (ViTs), originally developed for image recognition, to the analysis of astronomical spectral data. By converting traditional one-dimensional spectra into two-dimensional image representations, we enable ViTs to capture both local and global spectral features through spatial self-attention. We fine-tune a ViT pretrained on ImageNet using millions of spectra from the SDSS and LAMOST surveys, represented as spectral plots. Our model is evaluated on key tasks including stellar object classification and redshift ($z$) estimation, where it demonstrates strong performance and scalability. We achieve classification accuracy higher than Support Vector Machines and Random Forests, and attain $R^2$ values comparable to AstroCLIP's spectrum encoder, even when generalizing across diverse object types. These results demonstrate the effectiveness of using pretrained vision models for spectroscopic data analysis. To our knowledge, this is the first application of ViTs to large-scale, which also leverages real spectroscopic data and does not rely on synthetic inputs.
- Abstract(参考訳): 我々は、もともと画像認識のために開発された事前訓練された視覚変換器(ViTs)を、天文学的なスペクトルデータの解析に適用する。
従来の1次元スペクトルを2次元画像表現に変換することにより、空間的自己アテンションにより、局所的および大域的なスペクトル特徴の両方を捉えることができる。
我々は、SDSSとLAMOSTによる数百万のスペクトルを用いて、ImageNetで事前訓練されたViTを微調整し、スペクトルプロットとして表現する。
我々のモデルは、星オブジェクトの分類やレッドシフト(z$)推定といった重要なタスクに基づいて評価され、高い性能とスケーラビリティを示す。
AstroCLIPのスペクトルエンコーダに匹敵するR^2$の値を得ることができ、多種多様なオブジェクトタイプにまたがって一般化しても高い分類精度が得られる。
これらの結果は、事前学習された視覚モデルを用いた分光データ解析の有効性を示す。
我々の知る限り、これは大規模なViTの応用としては初めてであり、これは実際の分光データも活用し、合成入力に依存しない。
関連論文リスト
- CARL: Camera-Agnostic Representation Learning for Spectral Image Analysis [75.25966323298003]
スペクトルイメージングは、医療や都市景観の理解など、様々な領域で有望な応用を提供する。
スペクトルカメラのチャネル次元と捕獲波長のばらつきは、AI駆動方式の開発を妨げる。
我々は、$textbfC$amera-$textbfA$gnostic $textbfR$esupervised $textbfL$のモデルである$textbfCARL$を紹介した。
論文 参考訳(メタデータ) (2025-04-27T13:06:40Z) - SpectralGPT: Spectral Remote Sensing Foundation Model [60.023956954916414]
SpectralGPTという名前のユニバーサルRS基盤モデルは、新しい3D生成事前学習変換器(GPT)を用いてスペクトルRS画像を処理するために構築されている。
既存の基礎モデルと比較して、SpectralGPTは、様々なサイズ、解像度、時系列、領域をプログレッシブトレーニング形式で対応し、広範なRSビッグデータのフル活用を可能にする。
我々の評価では、事前訓練されたスペクトルGPTモデルによる顕著な性能向上が強調され、地球科学分野におけるスペクトルRSビッグデータ応用の進展に有意な可能性を示唆している。
論文 参考訳(メタデータ) (2023-11-13T07:09:30Z) - AstroCLIP: A Cross-Modal Foundation Model for Galaxies [40.43521617393482]
AstroCLIPは、銀河の画像とスペクトルを個別に埋め込むため、トランスフォーマーベースの画像とスペクトルエンコーダを自己監督設定で事前訓練する。
教師付きベースラインと比較しても、下流のタスクで顕著なパフォーマンスが得られます。
提案手法は、銀河の画像とスペクトルの自己教師型変換器に基づく最初のアーキテクチャである。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Cross-Spectral Periocular Recognition with Conditional Adversarial
Networks [59.17685450892182]
本研究では,近赤外・近赤外スペクトル間の近赤外画像の変換を訓練した条件付き生成逆相関ネットワークを提案する。
EER=1%, GAR>99% @ FAR=1%, ポリUデータベースの最先端技術に匹敵するスペクトル近視性能を得た。
論文 参考訳(メタデータ) (2020-08-26T15:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。