論文の概要: Paying Attention to Astronomical Transients: Introducing the Time-series
Transformer for Photometric Classification
- arxiv url: http://arxiv.org/abs/2105.06178v3
- Date: Wed, 4 Oct 2023 21:14:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 23:44:26.384754
- Title: Paying Attention to Astronomical Transients: Introducing the Time-series
Transformer for Photometric Classification
- Title(参考訳): 天文遷移への注意:測光分類のための時系列変換器の導入
- Authors: Tarek Allam Jr., Jason D. McEwen
- Abstract要約: 本稿では,自然言語処理のためのトランスフォーマーアーキテクチャを提案する。
時系列変換器をフォトメトリック分類のタスクに適用し、エキスパートドメイン知識の信頼性を最小化する。
我々は、光度LSST天文時系列分類チャレンジのデータを用いて、不均衡なデータに対する0.507の対数ロスを達成する。
- 参考スコア(独自算出の注目度): 6.586394734694152
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Future surveys such as the Legacy Survey of Space and Time (LSST) of the Vera
C. Rubin Observatory will observe an order of magnitude more astrophysical
transient events than any previous survey before. With this deluge of
photometric data, it will be impossible for all such events to be classified by
humans alone. Recent efforts have sought to leverage machine learning methods
to tackle the challenge of astronomical transient classification, with ever
improving success. Transformers are a recently developed deep learning
architecture, first proposed for natural language processing, that have shown a
great deal of recent success. In this work we develop a new transformer
architecture, which uses multi-head self attention at its core, for general
multi-variate time-series data. Furthermore, the proposed time-series
transformer architecture supports the inclusion of an arbitrary number of
additional features, while also offering interpretability. We apply the
time-series transformer to the task of photometric classification, minimising
the reliance of expert domain knowledge for feature selection, while achieving
results comparable to state-of-the-art photometric classification methods. We
achieve a logarithmic-loss of 0.507 on imbalanced data in a representative
setting using data from the Photometric LSST Astronomical Time-Series
Classification Challenge (PLAsTiCC). Moreover, we achieve a micro-averaged
receiver operating characteristic area under curve of 0.98 and micro-averaged
precision-recall area under curve of 0.87.
- Abstract(参考訳): ベラ・C・ルービン天文台のレガシー・サーベイ・オブ・スペース・アンド・タイム(LSST)のような将来の調査では、それまでのどの調査よりも天体物理学的な過渡現象が観測される。
この大量の測光データによって、このような事象を人間だけで分類することは不可能である。
近年,天文学的過渡分類の課題に取り組むために,機械学習手法の活用が試みられている。
Transformersは、自然言語処理のために最初に提案された、最近開発されたディープラーニングアーキテクチャである。
本研究では,マルチヘッドの自己注意をコアに用い,多変量時系列データのための新しいトランスフォーマーアーキテクチャを提案する。
さらに、提案された時系列トランスフォーマアーキテクチャは、任意の数の追加機能を含むと同時に、解釈可能性も提供する。
時系列トランスフォーマーを測光分類のタスクに適用し,特徴選択のための専門家領域知識の信頼性を最小化し,最先端の測光分類法に匹敵する結果を得る。
我々は、光度LSST天文時系列分類チャレンジ(PLAsTiCC)のデータを用いて、不均衡なデータに対する0.507の対数ロスを達成する。
さらに、曲線0.98のマイクロ平均受信特性領域と曲線0.87のマイクロ平均精度再生領域を実現する。
関連論文リスト
- PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - MambaVT: Spatio-Temporal Contextual Modeling for robust RGB-T Tracking [51.28485682954006]
本研究では,マンバをベースとした純フレームワーク(MambaVT)を提案する。
具体的には、長距離クロスフレーム統合コンポーネントを考案し、ターゲットの外観変化にグローバルに適応する。
実験では、RGB-TトラッキングのためのMambaのビジョンの可能性が示され、MambaVTは4つの主要なベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-08-15T02:29:00Z) - Real-time gravitational-wave inference for binary neutron stars using machine learning [71.29593576787549]
近似を行なわずに1秒で完全なBNS推論を行う機械学習フレームワークを提案する。
本手法は, (i) 合併前の正確な局所化を提供することにより, (i) 近似低遅延法と比較して, (ii) 局所化精度を$sim30%$で改善すること, (iii) 光度距離, 傾斜, 質量に関する詳細な情報を提供することにより, (i) マルチメーサの観測を向上する。
論文 参考訳(メタデータ) (2024-07-12T18:00:02Z) - FactoFormer: Factorized Hyperspectral Transformers with Self-Supervised
Pretraining [36.44039681893334]
ハイパースペクトル画像(HSI)は、豊富なスペクトルと空間情報を含む。
現在の最先端ハイパースペクトル変換器は、入力されたHSIサンプルをスペクトル次元に沿ってトークン化するのみである。
本稿では、自己教師付き事前学習手順を取り入れた新しい分解スペクトル空間変換器を提案する。
論文 参考訳(メタデータ) (2023-09-18T02:05:52Z) - ViT-Calibrator: Decision Stream Calibration for Vision Transformer [49.60474757318486]
本稿では、一般的な視覚変換器の性能を高めるための、決定ストリームと呼ばれる新しいパラダイムを提案する。
異なるトークンと複数の次元の関連係数の相関関係を探索し,学習過程における情報伝達機構について光を当てた。
論文 参考訳(メタデータ) (2023-04-10T02:40:24Z) - The Tiny Time-series Transformer: Low-latency High-throughput
Classification of Astronomical Transients using Deep Model Compression [4.960046610835999]
スペース・アンド・タイムのレガシー・サーベイ(LSST)は、時間領域天文学のビッグデータバーを引き上げます。
最新の深部圧縮手法がモデルサイズを18倍に削減できることを示す。
また、深部圧縮技術に加えて、ファイルフォーマットの慎重に選択することで、推論のレイテンシが向上することを示した。
論文 参考訳(メタデータ) (2023-03-15T21:46:35Z) - ViTs for SITS: Vision Transformers for Satellite Image Time Series [52.012084080257544]
ビジョン変換器(ViT)に基づく一般衛星画像時系列(SITS)処理のための完全アテンショナルモデルを提案する。
TSViTはSITSレコードを空間と時間で重複しないパッチに分割し、トークン化し、分解されたテンポロ空間エンコーダで処理する。
論文 参考訳(メタデータ) (2023-01-12T11:33:07Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - Improving Astronomical Time-series Classification via Data Augmentation
with Generative Adversarial Networks [1.2891210250935146]
本稿では,GAN(Generative Adrial Networks)に基づくデータ拡張手法を提案する。
変動星の分類精度は、合成データによるトレーニングや実データによるテストで著しく向上する。
論文 参考訳(メタデータ) (2022-05-13T16:39:54Z) - Coarse-to-Fine Sparse Transformer for Hyperspectral Image Reconstruction [138.04956118993934]
本稿では, サース・トゥ・ファインス・スパース・トランス (CST) を用いた新しいトランス方式を提案する。
HSI再構成のための深層学習にHSI空間を埋め込んだCST
特に,CSTは,提案したスペクトル認識スクリーニング機構(SASM)を粗いパッチ選択に使用し,選択したパッチを,細かなピクセルクラスタリングと自己相似性キャプチャのために,カスタマイズしたスペクトル集約ハッシュ型マルチヘッド自己アテンション(SAH-MSA)に入力する。
論文 参考訳(メタデータ) (2022-03-09T16:17:47Z) - A Differential Attention Fusion Model Based on Transformer for Time
Series Forecasting [4.666618110838523]
時系列予測は、機器ライフサイクル予測、天気予報、交通流予測などの分野で広く利用されている。
一部の学者は、この強力な並列トレーニング能力のために、Transformerを時系列予測に適用しようと試みている。
既存のTransformerメソッドは、予測において決定的な役割を果たす小さな時間セグメントに十分な注意を払わない。
論文 参考訳(メタデータ) (2022-02-23T10:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。