論文の概要: OmniSpectra: A Unified Foundation Model for Native Resolution Astronomical Spectra
- arxiv url: http://arxiv.org/abs/2601.15351v1
- Date: Wed, 21 Jan 2026 04:39:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.367835
- Title: OmniSpectra: A Unified Foundation Model for Native Resolution Astronomical Spectra
- Title(参考訳): OmniSpectra: ネイティブレゾリューション天文スペクトルのための統一ファンデーションモデル
- Authors: Md Khairul Islam, Judy Fox,
- Abstract要約: オムニスペクトル(OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra。
固定長の入力サイズや構成に制限のある従来のモデルとは異なり、OmniSpectraは元のサイズで任意の長さのスペクトルを処理する。
この伝達学習能力により、このモデルは、星や銀河の性質予測や、源の分類、赤方偏移の推定など、様々な天文学的タスクにおける最先端のモデルとなっている。
- 参考スコア(独自算出の注目度): 4.254099382808598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present OmniSpectra, the first native-resolution foundation model for astronomy spectra. Unlike traditional models, which are limited to fixed-length input sizes or configurations, OmniSpectra handles spectra of any length at their original size, without resampling or interpolation. Despite the large-scale spectroscopic data from diverse surveys fueling the rapid growth of astronomy, existing foundation models are limited to a fixed wavelength range and specific instruments. OmniSpectra is the first foundation model to learn simultaneously from multiple real-world spectra surveys with different configurations at a large scale. We achieve this by designing a novel architecture with adaptive patching across variable lengths, sinusoidal global wavelength encoding, local positional embeddings through depthwise convolution, and validity-aware self-attention masks. Allowing us to learn multi-scale spatial patterns while skipping attention for invalid patches. Even with a limited training example, OmniSpectra demonstrates excellent zero-shot generalization compared to methods tailored for specific tasks. This transfer learning capability makes this model the state-of-the-art across various astronomy tasks, including source classification, redshift estimation, and properties prediction for stars and galaxies. OmniSpectra reduces the need for training individual models for different tasks from scratch, establishing itself as the next-generation astronomy foundation model.
- Abstract(参考訳): オムニスペクトル(OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra, OmniSpectra。
固定長の入力サイズや構成に制限のある従来のモデルとは異なり、OmniSpectraは再サンプリングや補間なしに、任意の長さのスペクトルを元のサイズで処理する。
天文学の急速な成長を加速させる様々な調査による大規模な分光データにもかかわらず、既存の基礎モデルは固定波長範囲と特定の機器に限られている。
OmniSpectraは、大規模な構成の異なる複数の現実世界のスペクトルサーベイから同時に学習する最初の基礎モデルである。
可変長、正弦波大域波長符号化、奥行き畳み込みによる局所的な位置埋め込み、妥当性を意識した自己アテンションマスクを備えた新しいアーキテクチャを設計することで実現した。
無効なパッチに注意を払っている間、マルチスケールの空間パターンを学習できるようにする。
限られたトレーニング例であっても、OmniSpectraは特定のタスクに適したメソッドと比較して、優れたゼロショットの一般化を示している。
この伝達学習能力により、このモデルは、星や銀河の性質予測や、源の分類、赤方偏移の推定など、様々な天文学的タスクにおける最先端のモデルとなっている。
OmniSpectraは、個々のモデルをスクラッチからトレーニングする必要性を減らし、次世代天文学基礎モデルとして確立した。
関連論文リスト
- The Prism Hypothesis: Harmonizing Semantic and Pixel Representations via Unified Autoencoding [82.53463660564933]
セマンティックエンコーダは、主に抽象的意味を符号化する低周波成分をキャプチャするが、ピクセルエンコーダは微細な詳細を伝達する高周波情報を保持する。
本稿では,新しい周波数帯域変調器を用いて意味構造と画素の詳細を調和させるモデルであるUnified Autoencoding (UAE)を提案する。
論文 参考訳(メタデータ) (2025-12-22T18:59:57Z) - Universal Spectral Tokenization via Self-Supervised Panchromatic Representation Learning [39.14992490784682]
連続した科学的データは、多くの解像度と領域にまたがり、それらを共通の表現に統一することは、科学の基礎モデルを開発するための重要なステップである。
ヘテロジニアススペクトルを自己監督的に学習する深層学習モデルを提案する。
初めて、単一のモデルが、解像度と領域をまたいだスペクトルデータを統一できることを実証した。
論文 参考訳(メタデータ) (2025-10-20T18:00:00Z) - SpecCLIP: Aligning and Translating Spectroscopic Measurements for Stars [6.314253302704276]
我々は、LLMにインスパイアされた方法論を恒星スペクトル分析に拡張する基盤モデルフレームワークであるSpecCLIPを提案する。
大規模データセットの基盤モデルをトレーニングすることで、さまざまな下流アプリケーションをサポートする堅牢で情報に富んだ埋め込みを学ぶことが私たちのゴールです。
これらのモデルを中規模ラベル付きデータセットに微調整することで、恒星パラメータ推定や化学特性決定といったタスクへの適応性が向上することを示した。
論文 参考訳(メタデータ) (2025-07-02T17:49:52Z) - TerraFM: A Scalable Foundation Model for Unified Multisensor Earth Observation [65.74990259650984]
本研究では,グローバルに分散したSentinel-1とSentinel-2画像を利用する,スケーラブルな自己教師型学習モデルTerraFMを紹介する。
我々のトレーニング戦略は、局所的・言語的コントラスト学習を統合し、二重中心化機構を導入する。
TerraFMは分類タスクとセグメンテーションタスクの両方において強力な一般化を実現し、GEO-BenchとCopernicus-Benchの先行モデルよりも優れている。
論文 参考訳(メタデータ) (2025-06-06T17:59:50Z) - CARL: Camera-Agnostic Representation Learning for Spectral Image Analysis [69.02751635551724]
スペクトルイメージングは、医療や都市景観の理解など、様々な領域で有望な応用を提供する。
スペクトルカメラのチャネル次元と捕獲波長のばらつきは、AI駆動方式の開発を妨げる。
本稿では,RGB,マルチスペクトル,ハイパースペクトル画像を用いたカメラ非依存表現学習モデルCARLを紹介する。
論文 参考訳(メタデータ) (2025-04-27T13:06:40Z) - AstroM$^3$: A self-supervised multimodal model for astronomy [0.0]
本稿では,モデルが複数のモーダルから同時に学習できる自己教師型事前学習手法AstroM$3$を提案する。
具体的には、CLIP(Contrastive Language- Image Pretraining)モデルをトリモーダル設定に拡張し、時系列測光データ、スペクトル、天体物理メタデータの統合を可能にする。
以上の結果から,CLIP事前学習により時系列光度測定の分類性能が向上し,精度が84.6%から91.5%に向上した。
論文 参考訳(メタデータ) (2024-11-13T18:20:29Z) - SpectralGPT: Spectral Remote Sensing Foundation Model [60.023956954916414]
SpectralGPTという名前のユニバーサルRS基盤モデルは、新しい3D生成事前学習変換器(GPT)を用いてスペクトルRS画像を処理するために構築されている。
既存の基礎モデルと比較して、SpectralGPTは、様々なサイズ、解像度、時系列、領域をプログレッシブトレーニング形式で対応し、広範なRSビッグデータのフル活用を可能にする。
我々の評価では、事前訓練されたスペクトルGPTモデルによる顕著な性能向上が強調され、地球科学分野におけるスペクトルRSビッグデータ応用の進展に有意な可能性を示唆している。
論文 参考訳(メタデータ) (2023-11-13T07:09:30Z) - AstroCLIP: A Cross-Modal Foundation Model for Galaxies [40.43521617393482]
AstroCLIPは、銀河の画像とスペクトルを個別に埋め込むため、トランスフォーマーベースの画像とスペクトルエンコーダを自己監督設定で事前訓練する。
教師付きベースラインと比較しても、下流のタスクで顕著なパフォーマンスが得られます。
提案手法は、銀河の画像とスペクトルの自己教師型変換器に基づく最初のアーキテクチャである。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - MST++: Multi-stage Spectral-wise Transformer for Efficient Spectral
Reconstruction [148.26195175240923]
効率的なスペクトル再構成のためのマルチステージスペクトル変換器(MST++)を提案する。
NTIRE 2022 Spectral Reconstruction Challengeでは、私たちのアプローチが優勝しました。
論文 参考訳(メタデータ) (2022-04-17T02:39:32Z) - Deep Autoregressive Models with Spectral Attention [74.08846528440024]
本稿では,深部自己回帰モデルとスペクトル注意(SA)モジュールを組み合わせた予測アーキテクチャを提案する。
時系列の埋め込みをランダムなプロセスの発生としてスペクトル領域に特徴付けることにより,グローバルな傾向と季節パターンを同定することができる。
時系列に対するグローバルとローカルの2つのスペクトルアテンションモデルは、この情報を予測の中に統合し、スペクトルフィルタリングを行い、時系列のノイズを除去する。
論文 参考訳(メタデータ) (2021-07-13T11:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。