論文の概要: Classifying Image Sequences of Astronomical Transients with Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2004.13877v2
- Date: Fri, 2 Oct 2020 19:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 23:46:28.366561
- Title: Classifying Image Sequences of Astronomical Transients with Deep Neural
Networks
- Title(参考訳): 深部ニューラルネットワークを用いた天文遷移系の画像系列の分類
- Authors: Catalina G\'omez, Mauricio Neira, Marcela Hern\'andez Hoyos, Pablo
Arbel\'aez, Jaime E. Forero-Romero
- Abstract要約: 画像データから直接学習するディープ・ラーニング・アプローチを成功裏に提案する。
私たちは、カタルーニャ・リアルタイム・トランジェント・サーベイから13万個の実際の天体画像を用いて、これらのディープニューラルネットワークをトレーニングします。
TAO-Netアーキテクチャは、各クラス毎のF1スコアによって測定された10パーセントの光曲線上のランダム森林分類の結果より優れている。
- 参考スコア(独自算出の注目度): 2.5629689811689924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised classification of temporal sequences of astronomical images into
meaningful transient astrophysical phenomena has been considered a hard problem
because it requires the intervention of human experts. The classifier uses the
expert's knowledge to find heuristic features to process the images, for
instance, by performing image subtraction or by extracting sparse information
such as flux time series, also known as light curves. We present a successful
deep learning approach that learns directly from imaging data. Our method
models explicitly the spatio-temporal patterns with Deep Convolutional Neural
Networks and Gated Recurrent Units. We train these deep neural networks using
1.3 million real astronomical images from the Catalina Real-Time Transient
Survey to classify the sequences into five different types of astronomical
transient classes. The TAO-Net (for Transient Astronomical Objects Network)
architecture outperforms the results from random forest classification on light
curves by 10 percentage points as measured by the F1 score for each class; the
average F1 over classes goes from $45\%$ with random forest classification to
$55\%$ with TAO-Net. This achievement with TAO-Net opens the possibility to
develop new deep learning architectures for early transient detection. We make
available the training dataset and trained models of TAO-Net to allow for
future extensions of this work.
- Abstract(参考訳): 天文画像の時間的シーケンスを有意な過渡的な天体物理現象に分類することは、人間の専門家の介入を必要とするため難しい問題とみなされてきた。
分類器は専門家の知識を用いて、画像のサブトラクションや、光曲線として知られるフラックス時系列のようなスパース情報を抽出することで、画像を処理するヒューリスティックな特徴を見つける。
本稿では,画像データから直接学習するディープラーニング手法を提案する。
提案手法は,Deep Convolutional Neural NetworksとGated Recurrent Unitsを用いた時空間パターンを明示的にモデル化する。
これらの深層ニューラルネットワークを、カタリーナのリアルタイムトランジェント調査から得られた130万枚の実際の天文学画像を用いて訓練し、それらのシーケンスを5つの異なるタイプの天文学的トランジェントクラスに分類した。
tao-net (for transient astronomical objects network) アーキテクチャは、光曲線上のランダムフォレスト分類の結果を各クラス毎のf1スコアで測定した10パーセントのポイントで上回り、クラスの平均f1はランダムフォレスト分類で45\%$から、tao-netで55\%$となる。
TAO-Netによるこの成果は、早期過渡検知のための新しいディープラーニングアーキテクチャを開発する可能性を開く。
私たちはTAO-Netのトレーニングデータセットとトレーニングモデルを提供し、今後の拡張を可能にします。
関連論文リスト
- AstroM$^3$: A self-supervised multimodal model for astronomy [0.0]
本稿では,モデルが複数のモーダルから同時に学習できる自己教師型事前学習手法AstroM$3$を提案する。
具体的には、CLIP(Contrastive Language- Image Pretraining)モデルをトリモーダル設定に拡張し、時系列測光データ、スペクトル、天体物理メタデータの統合を可能にする。
以上の結果から,CLIP事前学習により時系列光度測定の分類性能が向上し,精度が84.6%から91.5%に向上した。
論文 参考訳(メタデータ) (2024-11-13T18:20:29Z) - Super Consistency of Neural Network Landscapes and Learning Rate Transfer [72.54450821671624]
我々は、失われたヘッセンのレンズを通して風景を研究する。
我々は、$mu$P のスペクトル特性がネットワークの大きさに大きく依存していることを発見した。
ニューラルタンジェントカーネル(NTK)や他のスケーリングシステムでは、シャープネスは異なるスケールで非常に異なるダイナミクスを示す。
論文 参考訳(メタデータ) (2024-02-27T12:28:01Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Identifying Transients in the Dark Energy Survey using Convolutional
Neural Networks [0.4759823735082844]
ダークエナジー・サーベイ・スーパーノバ・プログラム(DES-SN)の既存のデータセットに対するCNNを用いた画像の自動過渡識別の結果について述べる。
非人工物(超新星、可変星、AGNなど)を人工物(画像欠陥、誤抽出など)から効率的に選択するネットワークを同定する。
CNNは、誤ラベルされた画像のサブセットを特定するのにも役立ちます。このサブセットで画像のラベル付けを行うと、CNNによる分類は、以前の結果よりもはるかに優れているのです。
論文 参考訳(メタデータ) (2022-03-18T12:37:44Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - Morphological classification of compact and extended radio galaxies
using convolutional neural networks and data augmentation techniques [0.0]
この研究は、FIRST (Faint Images of the Radio Sky at Twenty Centimeters) からのアーカイブデータを用いて、電波銀河を4つのクラスに分類する。
この研究で示されたモデルは、畳み込みニューラルネットワーク(CNN)に基づいている。
本モデルでは,精度,リコール,F1スコアの平均96%の独立したテストサブセットを用いて,選択した電波源のクラスを分類した。
論文 参考訳(メタデータ) (2021-07-01T11:53:18Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - A study of Neural networks point source extraction on simulated
Fermi/LAT Telescope images [1.4528756508275622]
本稿では,我々の人工データセットに基づいて学習した畳み込みニューラルネットワーク(CNN)を用いた点源抽出手法を提案する。
これらの画像は1から10GeVのエネルギーをカバーする10×10度の原数光子マップである。
論文 参考訳(メタデータ) (2020-07-08T17:47:31Z) - Self-supervised Learning for Astronomical Image Classification [1.2891210250935146]
天文学では、毎日大量の画像データが測光サーベイによって生成される。
本稿では,未ラベルの天体画像から深部畳み込みニューラルネットワークを学習する手法を提案する。
論文 参考訳(メタデータ) (2020-04-23T17:32:19Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。