論文の概要: Self-supervised learning for radio-astronomy source classification: a benchmark
- arxiv url: http://arxiv.org/abs/2411.14078v2
- Date: Fri, 22 Nov 2024 09:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 12:05:40.110524
- Title: Self-supervised learning for radio-astronomy source classification: a benchmark
- Title(参考訳): 電波・天文学ソース分類のための自己教師型学習:ベンチマーク
- Authors: Thomas Cecconello, Simone Riggi, Ugo Becciani, Fabio Vitello, Andrew M. Hopkins, Giuseppe Vizzari, Concetto Spampinato, Simone Palazzo,
- Abstract要約: 近日発売のスクエア・キロメーター・アレイ(SKA)望遠鏡は、電波天文学において重要な一歩を踏み出した。
光写真画像に事前訓練された従来の視覚モデルは、電波干渉画像では最適に動作しない可能性がある。
本研究では,ラジオ天文学へのセルフ・スーパーバイザード・ラーニングの適用について検討する。
- 参考スコア(独自算出の注目度): 7.242380808853482
- License:
- Abstract: The upcoming Square Kilometer Array (SKA) telescope marks a significant step forward in radio astronomy, presenting new opportunities and challenges for data analysis. Traditional visual models pretrained on optical photography images may not perform optimally on radio interferometry images, which have distinct visual characteristics. Self-Supervised Learning (SSL) offers a promising approach to address this issue, leveraging the abundant unlabeled data in radio astronomy to train neural networks that learn useful representations from radio images. This study explores the application of SSL to radio astronomy, comparing the performance of SSL-trained models with that of traditional models pretrained on natural images, evaluating the importance of data curation for SSL, and assessing the potential benefits of self-supervision to different domain-specific radio astronomy datasets. Our results indicate that, SSL-trained models achieve significant improvements over the baseline in several downstream tasks, especially in the linear evaluation setting; when the entire backbone is fine-tuned, the benefits of SSL are less evident but still outperform pretraining. These findings suggest that SSL can play a valuable role in efficiently enhancing the analysis of radio astronomical data. The trained models and code is available at: \url{https://github.com/dr4thmos/solo-learn-radio}
- Abstract(参考訳): 近日発売のSquare Kilometer Array(SKA)望遠鏡は、電波天文学において重要な一歩を踏み出し、データ分析の新たな機会と課題を提示している。
光写真画像に事前訓練された従来の視覚モデルは、異なる視覚特性を持つ無線干渉画像では最適に動作しない可能性がある。
自己監視学習(SSL)は、無線天文学における豊富なラベルのないデータを活用して、無線画像から有用な表現を学ぶニューラルネットワークをトレーニングすることで、この問題に対処するための有望なアプローチを提供する。
本研究は、SSLの電波天文学への応用について検討し、SSL訓練モデルの性能を、自然画像上で事前訓練された従来のモデルの性能と比較し、SSLのデータキュレーションの重要性を評価し、異なる領域固有の電波天文学データセットに対する自己監督の可能性を評価する。
以上の結果から,複数のダウンストリームタスク,特に線形評価設定において,SSL学習モデルはベースラインよりも大幅に改善され,バックボーン全体が微調整された場合,SSLの利点は明らかになっていないが,まだ性能が劣っていることが示唆された。
これらの結果から, SSLは電波天文学的データ解析の効率化に重要な役割を担っていることが示唆された。
トレーニングされたモデルとコードは以下の通りである。
関連論文リスト
- Leveraging Self-Supervised Learning for Fetal Cardiac Planes Classification using Ultrasound Scan Videos [4.160910038127896]
自己教師付き学習(SSL)メソッドは、限られた注釈付きデータで状況に対処できるので人気がある。
本研究では, 再構成, コントラスト損失, 蒸留, 情報理論に基づく7つのSSL手法について検討し, 大規模な米国データセット上で広く評価する。
我々の第一の観察は、SSLトレーニングでは、データセットの分散がサイズよりも重要であることを示している。
論文 参考訳(メタデータ) (2024-07-31T16:47:21Z) - A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - Self-supervised learning for skin cancer diagnosis with limited training data [0.196629787330046]
自己教師付き学習(SSL)は、限られたトレーニングデータを持つシナリオに対するImageNetの標準教師付き事前トレーニングの代替である。
textitfurther SSL をタスク固有のデータセットで事前トレーニングし、その実装は教師あり転送学習によって動機づけられる。
タスク固有のデータに対するより最小限のSSL事前トレーニングは、限られたラベル付きデータによる医療画像分類タスクにおいて、ImageNet上の大規模なSSL事前トレーニングと同じくらい効果的である。
論文 参考訳(メタデータ) (2024-01-01T08:11:38Z) - Enhancing Network Initialization for Medical AI Models Using
Large-Scale, Unlabeled Natural Images [1.883452979588382]
自己教師付き学習(SSL)は胸部X線写真に適用して、堅牢な特徴を学習することができる。
我々は6つの大規模なグローバルデータセットから800,000個の胸部X線写真を用いてアプローチを検証した。
論文 参考訳(メタデータ) (2023-08-15T10:37:13Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Remote Sensing Image Scene Classification with Self-Supervised Paradigm
under Limited Labeled Samples [11.025191332244919]
我々は,大規模なラベル付きデータからRSIシーン分類のための高性能事前学習モデルを得るために,新たな自己教師付き学習(SSL)機構を導入する。
一般的な3つのRSIシーン分類データセットの実験により、この新たな学習パラダイムは、従来の支配的なImageNet事前学習モデルよりも優れていることが示された。
我々の研究から得られた知見は、リモートセンシングコミュニティにおけるSSLの発展を促進するのに役立ちます。
論文 参考訳(メタデータ) (2020-10-02T09:27:19Z) - Self-supervised Learning for Astronomical Image Classification [1.2891210250935146]
天文学では、毎日大量の画像データが測光サーベイによって生成される。
本稿では,未ラベルの天体画像から深部畳み込みニューラルネットワークを学習する手法を提案する。
論文 参考訳(メタデータ) (2020-04-23T17:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。