論文の概要: Pre-training vision models for the classification of alerts from wide-field time-domain surveys
- arxiv url: http://arxiv.org/abs/2512.11957v1
- Date: Fri, 12 Dec 2025 19:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.052246
- Title: Pre-training vision models for the classification of alerts from wide-field time-domain surveys
- Title(参考訳): 広視野時間領域サーベイからの警報の分類のための事前学習型視覚モデル
- Authors: Nabeel Rehemtulla, Adam A. Miller, Mike Walmsley, Ved G. Shah, Theophile Jegou du Laz, Michael W. Coughlin, Argyro Sasli, Joshua Bloom, Christoffer Fremling, Matthew J. Graham, Steven L. Groom, David Hale, Ashish A. Mahabal, Daniel A. Perley, Josiah Purdum, Ben Rusholme, Jesper Sollerman, Mansi M. Kasliwal,
- Abstract要約: 本稿では,各種事前学習レギュラーと標準モデルアーキテクチャの採用が警告分類の性能に与える影響について検討する。
結果のモデルが、アラートのフィルタリングに一般的に使用されるような、カスタムの特別なCNNにマッチするか、あるいは性能が向上していることが分かりました。
以上の結果から,Galaxy Zooからの銀河画像の事前トレーニングは,ImageNetの事前トレーニングやスクラッチからのトレーニングよりも優れた性能を示すことが示された。
- 参考スコア(独自算出の注目度): 0.07610022627779987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern wide-field time-domain surveys facilitate the study of transient, variable and moving phenomena by conducting image differencing and relaying alerts to their communities. Machine learning tools have been used on data from these surveys and their precursors for more than a decade, and convolutional neural networks (CNNs), which make predictions directly from input images, saw particularly broad adoption through the 2010s. Since then, continually rapid advances in computer vision have transformed the standard practices around using such models. It is now commonplace to use standardized architectures pre-trained on large corpora of everyday images (e.g., ImageNet). In contrast, time-domain astronomy studies still typically design custom CNN architectures and train them from scratch. Here, we explore the affects of adopting various pre-training regimens and standardized model architectures on the performance of alert classification. We find that the resulting models match or outperform a custom, specialized CNN like what is typically used for filtering alerts. Moreover, our results show that pre-training on galaxy images from Galaxy Zoo tends to yield better performance than pre-training on ImageNet or training from scratch. We observe that the design of standardized architectures are much better optimized than the custom CNN baseline, requiring significantly less time and memory for inference despite having more trainable parameters. On the eve of the Legacy Survey of Space and Time and other image-differencing surveys, these findings advocate for a paradigm shift in the creation of vision models for alerts, demonstrating that greater performance and efficiency, in time and in data, can be achieved by adopting the latest practices from the computer vision field.
- Abstract(参考訳): 現代の広視野時間領域調査は、画像の差分とコミュニティへの警告の中継を行うことにより、過渡的、変動的、移動的な現象の研究を促進する。
機械学習ツールは、これらの調査とその前駆者のデータに10年以上使われ、入力画像から直接予測を行う畳み込みニューラルネットワーク(CNN)は、特に2010年代を通じて広く採用されてきた。
それ以来、コンピュータビジョンの急速な進歩は、そのようなモデルの使用に関する標準プラクティスを変えてきた。
現在、日々のイメージの大きなコーパス(例: ImageNet)で事前訓練された標準化されたアーキテクチャを使用するのが一般的である。
対照的に、時間領域天文学の研究は、通常、カスタムCNNアーキテクチャを設計し、それらをゼロから訓練する。
本稿では,各種事前学習レギュレータと標準モデルアーキテクチャの採用が警告分類の性能に与える影響について検討する。
結果のモデルが、アラートのフィルタリングに一般的に使用されるような、カスタムの特別なCNNにマッチするか、あるいは性能が向上していることが分かりました。
さらに,Galaxy Zooからの銀河画像の事前トレーニングは,ImageNetの事前トレーニングやスクラッチからのトレーニングよりも優れた性能を示す傾向を示した。
標準化されたアーキテクチャの設計は、カスタムのCNNベースラインよりもはるかに最適化されており、よりトレーニング可能なパラメータを持つにもかかわらず、推論の時間とメモリが大幅に削減されていることを観察する。
The Legacy Survey of Space and Time and other image-difference Survey(空間と時間に関するレガシーサーベイ)の前夜に、これらの知見は警告のためのビジョンモデルの作成におけるパラダイムシフトを提唱し、コンピュータビジョン分野の最新のプラクティスを採用することで、時間とデータにおいて、より大きなパフォーマンスと効率が達成できることを実証した。
関連論文リスト
- Exploring the design space of deep-learning-based weather forecasting systems [56.129148006412855]
本稿では,異なる設計選択がディープラーニングに基づく天気予報システムに与える影響を系統的に分析する。
UNet、完全畳み込みアーキテクチャ、トランスフォーマーベースモデルなどの固定グリッドアーキテクチャについて検討する。
固定グリッドモデルの強靭な性能とグリッド不変アーキテクチャの柔軟性を組み合わせたハイブリッドシステムを提案する。
論文 参考訳(メタデータ) (2024-10-09T22:25:50Z) - Which Backbone to Use: A Resource-efficient Domain Specific Comparison for Computer Vision [4.600687314645625]
ImageNetのような大規模なデータセットで事前トレーニングされたアーキテクチャバックボーンは、一般的に機能抽出器として使用される。
本研究は、一貫したトレーニング設定下で、複数の軽量で事前訓練されたCNNバックボーンを体系的に評価する。
本研究は,異なるバックボーンの性能トレードオフと有効性について,実用的な知見を提供する。
論文 参考訳(メタデータ) (2024-06-09T02:01:25Z) - Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - Stealing the Invisible: Unveiling Pre-Trained CNN Models through
Adversarial Examples and Timing Side-Channels [14.222432788661914]
本稿では,逆画像の分類パターンをモデルから盗む手段として利用することの観察に基づくアプローチを提案する。
提案手法は,様々なモデルにまたがる様々な逆画像の誤分類を利用して,いくつかの有名な畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)アーキテクチャを指紋化する。
論文 参考訳(メタデータ) (2024-02-19T08:47:20Z) - An Adaptive Framework for Generalizing Network Traffic Prediction
towards Uncertain Environments [51.99765487172328]
我々は,モバイルネットワークトラフィック予測モデルを動的に割り当てるための時系列解析を用いた新しいフレームワークを開発した。
我々のフレームワークは学習した振る舞いを採用しており、現在の研究と比較して50%以上の改善が得られ、どのモデルよりも優れています。
論文 参考訳(メタデータ) (2023-11-30T18:58:38Z) - Training and Predicting Visual Error for Real-Time Applications [6.687091041822445]
コンボリューションニューラルネットワークが参照または描画画像を必要とすることなく、様々な視覚メトリクスを予測する能力について検討する。
我々のソリューションは、ほとんどの最先端の遅延シェーディングパイプラインで容易に利用できる画像空間情報と、以前のフレームからの再投影を組み合わせることで、視覚的エラーを適切に見積もることができる。
論文 参考訳(メタデータ) (2023-10-13T14:14:00Z) - Never Train from Scratch: Fair Comparison of Long-Sequence Models Requires Data-Driven Priors [44.5740422079]
標準的なデノベーション目的による事前トレーニングは、複数のアーキテクチャで劇的に向上することを示す。
先行研究とは対照的に、適切に事前訓練された場合の長距離アリーナでのS4の性能に適合するバニラトランスフォーマーが見つかる。
論文 参考訳(メタデータ) (2023-10-04T17:17:06Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。