論文の概要: Contrastive Heliophysical Image Pretraining for Solar Dynamics Observatory Records
- arxiv url: http://arxiv.org/abs/2511.22958v1
- Date: Fri, 28 Nov 2025 08:03:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.811109
- Title: Contrastive Heliophysical Image Pretraining for Solar Dynamics Observatory Records
- Title(参考訳): 太陽ダイナミクス観測記録のための対照的なヘリオフィジカル・プレトレーニング
- Authors: Shiyu Shen, Zhe Gao, Taifeng Chai, Yang Huang, Bin Pan,
- Abstract要約: SolarCHIPは、SDOの多施設観測に適した、対照的に事前訓練された視覚バックボーンのファミリーである。
SolarCHIPは、AIAとHMI機器間のマルチモーダルセンシング、時間的変化の遅いためクラス間の分離性の弱いこと、スパース活動信号によるクラス内変動の強いこと、の3つの課題に対処している。
- 参考スコア(独自算出の注目度): 9.239205316203245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has revolutionized solar image analysis, yet most approaches train task-specific encoders from scratch or rely on natural-image pretraining that ignores the unique characteristics of Solar Dynamics Observatory (SDO) data. We introduce SolarCHIP, a family of contrastively pretrained visual backbones tailored to multi-instrument SDO observations. SolarCHIP addresses three key challenges in solar imaging: multimodal sensing across AIA and HMI instruments, weak inter-class separability due to slow temporal evolution, and strong intra-class variability with sparse activity signals. Our pretraining framework employs a multi-granularity contrastive objective that jointly aligns (1) global class tokens across co-temporal AIA-HMI pairs to enhance temporal discrimination, (2) local patch tokens at fixed spatial indices to enforce position-consistent, modality-invariant features, and (3) intra-sample patches across different spatial locations to preserve fine-grained spatial structure. We train both CNN- and Vision Transformer-based autoencoders and demonstrate their effectiveness on two downstream tasks: cross-modal translation between HMI and AIA passbands via ControlNet, and full-disk flare classification. Experimental results show that SolarCHIP achieves state-of-the-art performance across both tasks, with particularly strong gains in low-resource settings where labeled data is limited. Ablation studies confirm that each contrastive component contributes essential discriminative capacity at different granularities. By publicly releasing pretrained weights and training code, we provide the heliophysics community with a practical, plug-and-play feature extractor that reduces computational requirements, improves label efficiency, and establishes a reusable foundation for diverse solar imaging applications.
- Abstract(参考訳): ディープラーニングは太陽画像解析に革命をもたらしたが、ほとんどのアプローチでは、タスク固有のエンコーダをスクラッチからトレーニングするか、ソーラー・ダイナミクス・オブザーバ(SDO)データ特有の特徴を無視した自然なイメージ事前トレーニングに依存している。
マルチインストゥルメントSDO観測に適した、対照的に事前訓練された視覚バックボーン群であるSolarCHIPを紹介する。
SolarCHIPは、AIAとHMI機器間のマルチモーダルセンシング、時間的変化の遅いためクラス間の分離性の弱いこと、スパース活動信号によるクラス内変動の強いこと、の3つの課題に対処している。
プレトレーニングフレームワークでは,(1)時間的識別を高めるために,(1)時間的AIA-HMIペア間でのグローバルクラストークン,(2)位置整合性,モダリティ不変性を強制するための固定空間インデックスにおける局所パッチトークン,(3)空間的な異なる位置を横断するサンプル内パッチを用いて,粒度空間構造を保存している。
我々は、CNN-とVision Transformerベースのオートエンコーダの両方をトレーニングし、HMIとAIAのクロスモーダルトランスフォーメーションとフルディスクフレア分類の2つのダウンストリームタスクにおいて、その効果を実証する。
実験結果から,SolarCHIPは両タスク間の最先端性能を実現し,ラベル付きデータに制限のある低リソース環境では特に顕著に向上した。
アブレーション研究は、各コントラスト成分が異なる粒度において本質的な識別能力に寄与することを確認する。
事前訓練した重量とトレーニングコードを公開することにより、計算要求を減らし、ラベル効率を向上し、多様なソーラーイメージングアプリケーションのための再利用可能な基盤を確立するための実用的でプラグアンドプレイな特徴抽出器を、Heliophysicsコミュニティに提供する。
関連論文リスト
- Latent Representation Learning in Heavy-Ion Collisions with MaskPoint Transformer [2.6610943214001765]
本稿では,トランスフォーマーベースのオートエンコーダについて,自己教師付き事前学習と教師付き微調整という2段階のパラダイムで学習した。
エンコーダはラベルのないHICデータから直接潜在表現を学習し、コンパクトで情報豊富な特徴空間を提供する。
その結果,HICにおける特徴学習の汎用的かつ堅牢な基盤として2段階の枠組みを確立し,クォークグルーオンプラズマ特性のより強力な解析への扉を開くことができた。
論文 参考訳(メタデータ) (2025-10-08T06:27:10Z) - From Bias to Balance: Exploring and Mitigating Spatial Bias in LVLMs [57.01486941224062]
LVLM(Large Vision-Language Models)は、様々なマルチモーダルタスクにおいて大きな成功を収めている。
画像内の異なる場所に同じキー情報を置くと、モデルがどのように反応するかに焦点を当てる。
本研究では,すべての画像トークンに同一位置埋め込みを割り当てるシンプルかつ効果的な機構であるBaPAを導入する。
論文 参考訳(メタデータ) (2025-09-26T07:07:03Z) - EVA02-AT: Egocentric Video-Language Understanding with Spatial-Temporal Rotary Positional Embeddings and Symmetric Optimization [17.622013322533423]
EVA02-ATは、エゴセントリックなビデオ理解タスクに適した、EVA02ベースのビデオ言語基盤モデルのスイートである。
EVA02-ATは、画像ベースのCLIPモデルをシングルステージプレトレーニングを介して、統一ビデオエンコーダに効率的に転送する。
我々は,Symmetric Multi-Similarity(SMS)損失と,正と負のペアに対してすべてのソフトラベルを前進させる新しいトレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2025-06-17T09:51:51Z) - Spatial-Temporal-Spectral Unified Modeling for Remote Sensing Dense Prediction [20.1863553357121]
リモートセンシングのための現在のディープラーニングアーキテクチャは、基本的に堅固である。
本稿では,統合モデリングのための空間時間スペクトル統一ネットワーク(STSUN)について紹介する。
STSUNは任意の空間サイズ、時間長、スペクトル帯域で入力および出力データに適応することができる。
様々な密集した予測タスクと多様な意味クラス予測を統一する。
論文 参考訳(メタデータ) (2025-05-18T07:39:17Z) - EXCON: Extreme Instance-based Contrastive Representation Learning of Severely Imbalanced Multivariate Time Series for Solar Flare Prediction [1.024113475677323]
このような不均衡の中で、分類性能を高めるために設計されたコントラスト表現学習フレームワークEXCONを提示する。
結果は、太陽フレアデータセットのベンチマークと、バイナリとマルチクラスラベルによる複数の時系列アーカイブデータセットの評価を含む。
論文 参考訳(メタデータ) (2024-11-18T02:36:19Z) - Solar synthetic imaging: Introducing denoising diffusion probabilistic models on SDO/AIA data [0.0]
本研究では、生成的深層学習モデル、特にDenoising Diffusion Probabilistic Model (DDPM)を用いて、太陽現象の合成画像を作成することを提案する。
SDO宇宙船に搭載されたAIA機器のデータセットを利用することで、データ不足問題に対処することを目指している。
DDPMのパフォーマンスは、クラスタメトリクス、Frechet Inception Distance (FID)、F1スコアを用いて評価され、現実的な太陽画像を生成する上で有望な結果を示している。
論文 参考訳(メタデータ) (2024-04-03T08:18:45Z) - Self-Promoted Supervision for Few-Shot Transformer [178.52948452353834]
SUN(Self-promoted sUpervisioN)は視覚変換器(ViT)のための数発の学習フレームワークである
SUNは、数ショットの学習データセットでViTを事前トレーニングし、各パッチトークンを導くために、個別のロケーション固有の監視を生成する。
実験によると、ViTを使ったSUNは、ViTを使った他の数発の学習フレームワークを大幅に上回っており、CNNの最先端技術よりも高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-03-14T12:53:27Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。