論文の概要: A self-regulated convolutional neural network for classifying variable stars
- arxiv url: http://arxiv.org/abs/2505.14877v1
- Date: Tue, 20 May 2025 20:09:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.732996
- Title: A self-regulated convolutional neural network for classifying variable stars
- Title(参考訳): 可変星分類のための自己制御畳み込みニューラルネットワーク
- Authors: Francisco Pérez-Galarce, Jorge Martínez-Palomera, Karim Pichara, Pablo Huijse, Márcio Catelan,
- Abstract要約: 機械学習モデルは可変星の分類に有効であることが証明されている。
それぞれの星型をよく一般化するためには、高品質で代表的なデータと多数のラベル付きサンプルが必要である。
この課題は、トレーニングデータに固有のバイアスを学習し、強化するモデルにつながることが多い。
本稿では,自己規制学習プロセスを導入することで,変光星分類における分類器の信頼性を向上させる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 1.0485739694839669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last two decades, machine learning models have been widely applied and have proven effective in classifying variable stars, particularly with the adoption of deep learning architectures such as convolutional neural networks, recurrent neural networks, and transformer models. While these models have achieved high accuracy, they require high-quality, representative data and a large number of labelled samples for each star type to generalise well, which can be challenging in time-domain surveys. This challenge often leads to models learning and reinforcing biases inherent in the training data, an issue that is not easily detectable when validation is performed on subsamples from the same catalogue. The problem of biases in variable star data has been largely overlooked, and a definitive solution has yet to be established. In this paper, we propose a new approach to improve the reliability of classifiers in variable star classification by introducing a self-regulated training process. This process utilises synthetic samples generated by a physics-enhanced latent space variational autoencoder, incorporating six physical parameters from Gaia Data Release 3. Our method features a dynamic interaction between a classifier and a generative model, where the generative model produces ad-hoc synthetic light curves to reduce confusion during classifier training and populate underrepresented regions in the physical parameter space. Experiments conducted under various scenarios demonstrate that our self-regulated training approach outperforms traditional training methods for classifying variable stars on biased datasets, showing statistically significant improvements.
- Abstract(参考訳): 過去20年間、機械学習モデルは広く適用され、特に畳み込みニューラルネットワークやリカレントニューラルネットワーク、トランスフォーマーモデルといったディープラーニングアーキテクチャの採用によって、可変星の分類に有効であることが証明されている。
これらのモデルは高い精度を達成しているが、星型ごとに高品質で代表的なデータと多数のラベル付きサンプルが必要であるため、時間領域の調査では困難である。
この課題は、トレーニングデータに固有のバイアスを学習し、強化するモデルにつながることが多い。
変光星データのバイアスの問題は概ね見過ごされ、決定的な解がまだ確立されていない。
本稿では,自己規制学習プロセスを導入することで,変光星分類における分類器の信頼性を向上させるための新しい手法を提案する。
このプロセスでは,Gaia Data Release 3の6つの物理パラメータを組み込んだ物理付潜空間変分オートエンコーダによって生成された合成サンプルを利用する。
本手法は,分類器と生成モデルとの動的相互作用を特徴とし,生成モデルは,分類器訓練中の混乱を軽減し,物理パラメータ空間の未表現領域をポピュレートする。
様々なシナリオで実施された実験により、我々の自己規制トレーニングアプローチは、偏りのあるデータセット上で変光星を分類する従来の訓練方法よりも優れており、統計的に有意な改善が示されている。
関連論文リスト
- Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Phantom Embeddings: Using Embedding Space for Model Regularization in
Deep Neural Networks [12.293294756969477]
機械学習モデルの強みは、データから複雑な関数近似を学ぶ能力に起因している。
複雑なモデルはトレーニングデータを記憶する傾向があり、結果としてテストデータの正規化性能が低下する。
情報豊富な潜伏埋め込みと高いクラス内相関を利用してモデルを正規化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T17:15:54Z) - Variational Autoencoding Neural Operators [17.812064311297117]
関数型データによる教師なし学習は、コンピュータビジョン、気候モデリング、物理システムへの応用を含む機械学習研究の新たなパラダイムである。
本稿では,大規模な演算子学習アーキテクチャを変分オートエンコーダとして機能させる汎用戦略として,変分オートエンコードニューラル演算子(VANO)を提案する。
論文 参考訳(メタデータ) (2023-02-20T22:34:43Z) - Bayesian Active Learning for Discrete Latent Variable Models [19.852463786440122]
アクティブラーニングは、モデルのパラメータに適合するために必要なデータ量を削減しようとする。
潜在変数モデルは神経科学、心理学、その他の様々な工学、科学分野において重要な役割を果たす。
論文 参考訳(メタデータ) (2022-02-27T19:07:12Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Entropy optimized semi-supervised decomposed vector-quantized
variational autoencoder model based on transfer learning for multiclass text
classification and generation [3.9318191265352196]
多クラステキスト分類とテキスト生成のための半教師付き離散潜在変数モデルを提案する。
提案モデルは,量子化変圧器モデルの学習に伝達学習の概念を用いる。
実験結果から,提案モデルが最先端モデルを大幅に上回ったことが示唆された。
論文 参考訳(メタデータ) (2021-11-10T07:07:54Z) - A hybrid model-based and learning-based approach for classification
using limited number of training samples [13.60714541247498]
本稿では,物理に基づく統計モデルと学習に基づく分類器の両方を利用するハイブリッド分類手法であるHyPhyLearnを提案する。
提案手法は、HyPhyLearnが学習ベースおよび統計モデルに基づく分類器の個人的アプローチに関連する課題を軽減するという予想に基づいている。
論文 参考訳(メタデータ) (2021-06-25T05:19:50Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。