論文の概要: Scalable End-to-end Recurrent Neural Network for Variable star
classification
- arxiv url: http://arxiv.org/abs/2002.00994v1
- Date: Mon, 3 Feb 2020 19:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:34:42.588807
- Title: Scalable End-to-end Recurrent Neural Network for Variable star
classification
- Title(参考訳): 可変星分類のためのスケーラブルなエンドツーエンドリカレントニューラルネットワーク
- Authors: Ignacio Becker, Karim Pichara, M\'arcio Catelan, Pavlos Protopapas,
Carlos Aguirre, Fatemeh Nikzat
- Abstract要約: 本稿では,光曲線の表現を自動的に学習し,正確な自動分類を可能にするエンドツーエンドアルゴリズムを提案する。
提案手法では,データ前処理の最小化,新しい観測および光曲線の計算コストの低減,大規模データセットへのスケールアップが可能となる。
- 参考スコア(独自算出の注目度): 1.2722697496405464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During the last decade, considerable effort has been made to perform
automatic classification of variable stars using machine learning techniques.
Traditionally, light curves are represented as a vector of descriptors or
features used as input for many algorithms. Some features are computationally
expensive, cannot be updated quickly and hence for large datasets such as the
LSST cannot be applied. Previous work has been done to develop alternative
unsupervised feature extraction algorithms for light curves, but the cost of
doing so still remains high. In this work, we propose an end-to-end algorithm
that automatically learns the representation of light curves that allows an
accurate automatic classification. We study a series of deep learning
architectures based on Recurrent Neural Networks and test them in automated
classification scenarios. Our method uses minimal data preprocessing, can be
updated with a low computational cost for new observations and light curves,
and can scale up to massive datasets. We transform each light curve into an
input matrix representation whose elements are the differences in time and
magnitude, and the outputs are classification probabilities. We test our method
in three surveys: OGLE-III, Gaia and WISE. We obtain accuracies of about $95\%$
in the main classes and $75\%$ in the majority of subclasses. We compare our
results with the Random Forest classifier and obtain competitive accuracies
while being faster and scalable. The analysis shows that the computational
complexity of our approach grows up linearly with the light curve size, while
the traditional approach cost grows as $N\log{(N)}$.
- Abstract(参考訳): 過去10年間、機械学習技術を用いて変光星の自動分類を行うためにかなりの努力が払われてきた。
伝統的に、光曲線は多くのアルゴリズムの入力として使われるディスクリプタや特徴のベクトルとして表現される。
いくつかの機能は計算コストが高く、素早く更新できないため、LSSTのような大規模なデータセットには適用できない。
従来、光曲線に対する教師なし特徴抽出アルゴリズムの開発が行われていたが、そのコストは依然として高いままである。
本研究では,光曲線の表現を自動的に学習し,正確な自動分類を可能にするエンドツーエンドアルゴリズムを提案する。
本研究では,反復型ニューラルネットワークに基づく一連のディープラーニングアーキテクチャを調査し,自動分類シナリオでテストする。
提案手法では,データ前処理の最小化,新しい観測および光曲線の計算コストの低減,大規模データセットへのスケールアップが可能となる。
各光曲線を,要素が時間と大きさの差であり,出力が分類確率である入力行列表現に変換する。
本手法をOGLE-III, Gaia, WISEの3つの調査で検証した。
私たちは、主要なクラスで約$95\%$、サブクラスで$75\%$というアキュラシーを得た。
我々はこの結果をランダムフォレスト分類器と比較し、高速でスケーラブルな競争精度を得る。
解析の結果,本手法の計算複雑性は光曲線サイズとともに線形に増大し,従来の手法のコストは$n\log{(n)}$で増加することがわかった。
関連論文リスト
- Automated Sizing and Training of Efficient Deep Autoencoders using
Second Order Algorithms [0.46040036610482665]
一般化線形分類器の多段階学習法を提案する。
検証エラーは不要な入力のプルーニングによって最小化される。
所望の出力は、Ho-Kashyapルールに似た方法で改善される。
論文 参考訳(メタデータ) (2023-08-11T16:48:31Z) - Resource saving taxonomy classification with k-mer distributions and
machine learning [2.0196229393131726]
我々はDNAから得られた$k$-merの分布を、その分類学的起源を分類するための特徴として用いることを提案する。
以上の結果から,本手法は属レベルでの分類を改良し,スーパーキングダムや植物レベルでの同等の結果が得られることが示された。
論文 参考訳(メタデータ) (2023-03-10T08:01:08Z) - What learning algorithm is in-context learning? Investigations with
linear models [87.91612418166464]
本稿では,トランスフォーマーに基づくインコンテキスト学習者が標準学習アルゴリズムを暗黙的に実装する仮説について検討する。
訓練された文脈内学習者は、勾配降下、隆起回帰、および正確な最小二乗回帰によって計算された予測値と密に一致していることを示す。
文脈内学習者がこれらの予測器とアルゴリズム的特徴を共有するという予備的証拠。
論文 参考訳(メタデータ) (2022-11-28T18:59:51Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Towards Meta-learned Algorithm Selection using Implicit Fidelity
Information [13.750624267664156]
IMFASは、計算コストの低い任意のメタ機能によって容易に豊かになる情報的ランドマークを生産する。
テスト期間中に、ほぼ半分の忠実度シーケンスでSuccessive Halvingを破ることができることを示す。
論文 参考訳(メタデータ) (2022-06-07T09:14:24Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - A Deep Learning Based Ternary Task Classification System Using Gramian
Angular Summation Field in fNIRS Neuroimaging Data [0.15229257192293197]
機能近赤外分光法(FNIRS)は、血流パターンを研究するために用いられる非侵襲的、経済的手法である。
提案手法は,生のfNIRS時系列データをGramian Angular Summation Fieldを用いた画像に変換する。
深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)ベースのアーキテクチャは、メンタル算術、運動画像、アイドル状態などのタスク分類に使用される。
論文 参考訳(メタデータ) (2021-01-14T22:09:35Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - Imbalance Learning for Variable Star Classification [0.0]
我々は,不均衡な学習問題を克服する階層型機械学習分類手法を開発した。
私たちは'データレベル'アプローチを使用して、トレーニングデータを直接拡張し、表現不足のクラスをよりよく記述します。
階層モデルで$texttGpFit$を使用すると,より高い分類率が得られることがわかった。
論文 参考訳(メタデータ) (2020-02-27T19:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。