論文の概要: ASTROCO: Self-Supervised Conformer-Style Transformers for Light-Curve Embeddings
- arxiv url: http://arxiv.org/abs/2509.24134v1
- Date: Mon, 29 Sep 2025 00:09:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.654856
- Title: ASTROCO: Self-Supervised Conformer-Style Transformers for Light-Curve Embeddings
- Title(参考訳): ASTROCO:光硬化型インベディング用自励コンバータ型変圧器
- Authors: Antony Tan, Pavlos Protopapas, Martina Cádiz-Leyton, Guillermo Cabrera-Vives, Cristobal Donoso-Oliva, Ignacio Becker,
- Abstract要約: 本研究では,不規則な恒星光曲線に対するコンバータ型エンコーダAstroCoを提案する。
AstroCoは、注意を奥行きの畳み込みとゲーティングと組み合わせることで、グローバルな依存関係とローカル機能の両方をキャプチャする。
- 参考スコア(独自算出の注目度): 0.6311317391051162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present AstroCo, a Conformer-style encoder for irregular stellar light curves. By combining attention with depthwise convolutions and gating, AstroCo captures both global dependencies and local features. On MACHO R-band, AstroCo outperforms Astromer v1 and v2, yielding 70 percent and 61 percent lower error respectively and a relative macro-F1 gain of about 7 percent, while producing embeddings that transfer effectively to few-shot classification. These results highlight AstroCo's potential as a strong and label-efficient foundation for time-domain astronomy.
- Abstract(参考訳): 本研究では,不規則な恒星光曲線に対するコンバータ型エンコーダAstroCoを提案する。
AstroCoは、注意を奥行きの畳み込みとゲーティングと組み合わせることで、グローバルな依存関係とローカル機能の両方をキャプチャする。
MACHO Rバンドでは、AstroCo は Astromer v1 と v2 を上回り、それぞれ70% と 661 のエラー率、相対マクロF1 の上昇率約7% を達成し、ほとんどショットの分類に効果的に移行した埋め込みを生成する。
これらの結果は、時間領域天文学の強固でラベル効率の良い基盤としてのAstroCoの可能性を浮き彫りにしている。
関連論文リスト
- AstroMLab 4: Benchmark-Topping Performance in Astronomy Q&A with a 70B-Parameter Domain-Specialized Reasoning Model [3.911100968725141]
汎用的な大規模言語モデルは、しばしば専門的なドメイン知識に苦しむ。
本研究では、ドメイン特化自然言語AIアシスタントであるAstroSage-70Bを紹介する。
天文学、天体物理学、宇宙科学、天体物理学、宇宙論、天文学機器の研究と教育のために設計された。
論文 参考訳(メタデータ) (2025-05-23T07:58:50Z) - Astromer 2 [1.236974227340167]
Astromer 2は光曲線解析のための自己教師付きモデルの拡張版として導入する。
Astromer 2 は、MACHO 調査から150万個の単バンド光曲線上で、自己教師付き学習タスクを用いて事前訓練される。
以上の結果から,Astromer 2はすべての評価シナリオでAstromer 1を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2025-02-04T20:56:14Z) - Breaking the Low-Rank Dilemma of Linear Attention [61.55583836370135]
線形注意(linear attention)は、複雑性を線形レベルに還元することで、はるかに効率的なソリューションを提供する。
実験により, この性能低下は, 線形アテンションの特徴マップの低ランク性に起因することが示唆された。
我々は,線形複雑性と高効率を維持しつつ,Softmaxの注目性能に匹敵するランク拡張線形注意(RALA)を導入する。
論文 参考訳(メタデータ) (2024-11-12T08:30:59Z) - AstroMLab 1: Who Wins Astronomy Jeopardy!? [4.162245706139047]
このデータセットは、天文学と天文学の年次レビューから算出された4,425の多重選択質問からなる。
Claude-3.5-Sonnetは最大4.6ポイント、85.0%の精度でライバルを上回っている。
LLaMA-3-70b (80.6%) と Qwen-2-72b (77.7%) はいくつかの優れたプロプライエタリモデルと競合している。
論文 参考訳(メタデータ) (2024-07-15T19:28:14Z) - A Deep Dive into the Trade-Offs of Parameter-Efficient Preference Alignment Techniques [63.10251271444959]
大規模言語モデルは最初、数兆のトークンで事前訓練され、その後、特定の好みに合わせて命令調整または調整される。
我々は,3つの重要な軸に対する人気選択の影響を詳細に調査する。
300以上の実験にまたがるセットアップでは、一貫した傾向と予期せぬ結果が明らかになる。
論文 参考訳(メタデータ) (2024-06-07T12:25:51Z) - Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - Rotation-Invariant Transformer for Point Cloud Matching [42.5714375149213]
我々は,回転不変変換器であるRoITrを導入し,点クラウドマッチングタスクにおけるポーズ変動に対処する。
本稿では,自己認識機構によって学習した,回転不変なクロスフレーム空間認識を備えたグローバルトランスフォーマーを提案する。
RoITrは、Inlier RatioとRegistration Recallの点で、既存のメソッドを少なくとも13と5のパーセンテージで上回っている。
論文 参考訳(メタデータ) (2023-03-14T20:55:27Z) - Astroconformer: Inferring Surface Gravity of Stars from Stellar Light
Curves with Transformer [1.122225892380515]
我々は、ケプラーミッションから恒星の光曲線を分析するトランスフォーマーベースのモデルであるAstroconformerを紹介する。
我々はアストラコンフォーマーが恒星表面重力を教師付きタスクとして強く推測できることを実証した。
また, この手法は, ルービン天文台からのカデンス光曲線の分離に応用可能であることを示す。
論文 参考訳(メタデータ) (2022-07-06T16:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。