論文の概要: S3Former: Self-supervised High-resolution Transformer for Solar PV Profiling
- arxiv url: http://arxiv.org/abs/2405.04489v1
- Date: Tue, 7 May 2024 16:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 13:21:31.866292
- Title: S3Former: Self-supervised High-resolution Transformer for Solar PV Profiling
- Title(参考訳): S3Former:ソーラーPVプロファイリングのための自己監督型高分解能変圧器
- Authors: Minh Tran, Adrian De Luis, Haitao Liao, Ying Huang, Roy McCann, Alan Mantooth, Jack Cothren, Ngan Le,
- Abstract要約: 航空画像からソーラーパネルを分割し,サイズと位置情報を提供するS3Formerを紹介した。
S3FormerはMasked Attention Mask Transformerを備えている。
多様なデータセットを用いてS3Formerを評価し、最先端モデルの改善を実証する。
- 参考スコア(独自算出の注目度): 6.646508986504754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the impact of climate change escalates, the global necessity to transition to sustainable energy sources becomes increasingly evident. Renewable energies have emerged as a viable solution for users, with Photovoltaic energy being a favored choice for small installations due to its reliability and efficiency. Accurate mapping of PV installations is crucial for understanding the extension of its adoption and informing energy policy. To meet this need, we introduce S3Former, designed to segment solar panels from aerial imagery and provide size and location information critical for analyzing the impact of such installations on the grid. Solar panel identification is challenging due to factors such as varying weather conditions, roof characteristics, Ground Sampling Distance variations and lack of appropriate initialization weights for optimized training. To tackle these complexities, S3Former features a Masked Attention Mask Transformer incorporating a self-supervised learning pretrained backbone. Specifically, our model leverages low-level and high-level features extracted from the backbone and incorporates an instance query mechanism incorporated on the Transformer architecture to enhance the localization of solar PV installations. We introduce a self-supervised learning phase (pretext task) to improve the initialization weights on the backbone of S3Former. We evaluated S3Former using diverse datasets, demonstrate improvement state-of-the-art models.
- Abstract(参考訳): 気候変動の影響が拡大するにつれて、持続可能なエネルギー源への世界的移行の必要性がますます顕在化している。
再生可能エネルギーは、ユーザにとって実行可能なソリューションとして現れており、太陽光発電エネルギーはその信頼性と効率性から、小さな設備に好まれる選択である。
PV導入の正確なマッピングは、導入の延長とエネルギー政策の報知に不可欠である。
このニーズを満たすため、我々はS3Formerを導入し、空撮画像からソーラーパネルを分割し、そのような設置がグリッドに与える影響を分析する上で重要な大きさと位置情報を提供する。
太陽パネルの識別は、様々な気象条件、屋根の特性、地上サンプリング距離の変動、最適化トレーニングのための適切な初期化重量の欠如などの要因により困難である。
これらの複雑さに対処するため、S3FormerはMasked Attention Mask Transformerを備えており、自己教師付き学習事前学習バックボーンが組み込まれている。
具体的には、バックボーンから抽出した低レベル・高レベルな特徴を活用し、Transformerアーキテクチャに組み込んだインスタンスクエリ機構を組み込んで、ソーラーPVの設置位置を向上する。
本稿では,S3Formerのバックボーンの初期化重みを改善するために,自己教師付き学習フェーズ(テキストタスク)を導入する。
多様なデータセットを用いてS3Formerを評価し,最先端モデルの改善を実証した。
関連論文リスト
- Solar Panel Segmentation :Self-Supervised Learning Solutions for Imperfect Datasets [0.0]
本稿では,パネルセグメンテーションの課題,特に注釈付きデータの不足,および教師あり学習のための手動アノテーションの労働集約性について論じる。
これらの課題を解決するために、自己監視学習(SSL)を探求し、適用します。
論文 参考訳(メタデータ) (2024-02-20T09:13:11Z) - FusionSF: Fuse Heterogeneous Modalities in a Vector Quantized Framework
for Robust Solar Power Forecasting [24.57911612111109]
本稿では,過去の電力データ,数値天気予報,衛星画像を統合するための多モード融合フレームワークを提案する。
本フレームワークは,新たに設置した植物に特に有用である,強いゼロショット予測能力を示す。
我々のモデルは頑丈なだけでなく、ゼロショット予測とトレーニングデータに富んだシナリオの両方において精度を高める。
論文 参考訳(メタデータ) (2024-02-08T17:03:10Z) - SolarFormer: Multi-scale Transformer for Solar PV Profiling [7.686020113962378]
SolarFormerは、ソーラーパネルを空中画像から切り離し、その位置と大きさに関する洞察を提供するように設計されている。
本モデルでは,低レベル機能を活用し,太陽PV設置の局所化を強化するインスタンスクエリ機構を組み込んだ。
我々の実験は、我々のモデルが最先端のモデルと一致しているか、あるいは超えていることを一貫して示している。
論文 参考訳(メタデータ) (2023-10-30T22:22:01Z) - Can We Reliably Improve the Robustness to Image Acquisition of Remote
Sensing of PV Systems? [0.8192907805418583]
屋上PV設置のリモートセンシングは、屋根上PV設置車両の地域規模での進化を監視する最良の選択肢である。
我々は、宇宙スケール領域におけるモデルの予測を分解するウェーブレットスケール属性法(WCAM)を利用する。
WCAMにより、PVモデルのどのスケールが残留しているかを評価することができ、取得条件に対するロバスト性を改善する手法を導出するための洞察を提供する。
論文 参考訳(メタデータ) (2023-09-21T16:15:56Z) - Isomer: Isomerous Transformer for Zero-shot Video Object Segmentation [59.91357714415056]
コンテクスト共有変換器(CST)とセマンティックガザリング散乱変換器(SGST)の2つの変種を提案する。
CSTは、軽量な計算により、画像フレーム内のグローバル共有コンテキスト情報を学習し、SGSTは、前景と背景のセマンティック相関を別々にモデル化する。
多段核融合にバニラ変換器を使用するベースラインと比較して,我々は13倍の速度向上を実現し,新しい最先端ZVOS性能を実現する。
論文 参考訳(メタデータ) (2023-08-13T06:12:00Z) - Improving day-ahead Solar Irradiance Time Series Forecasting by
Leveraging Spatio-Temporal Context [46.72071291175356]
太陽発電は二酸化炭素の排出量を大幅に削減することで気候変動を緩和する大きな可能性を秘めている。
しかし、太陽光の固有の変動は、電力網に太陽エネルギーをシームレスに統合する上で大きな課題となる。
本稿では,衛星データを用いた時間的文脈の活用を目的としたディープラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-01T19:54:39Z) - A Comparative Study on Generative Models for High Resolution Solar
Observation Imaging [59.372588316558826]
本研究は、観測された太陽活動状態の背後にあるデータ分布を正確に捉えるために、現在の最先端生成モデルの能力について検討する。
スーパーコンピュータ上での分散トレーニングを用いて、人間の専門家が区別できない高品質なサンプルを生成する、最大1024x1024解像度の生成モデルを訓練することができる。
論文 参考訳(メタデータ) (2023-04-14T14:40:32Z) - Computational Solar Energy -- Ensemble Learning Methods for Prediction
of Solar Power Generation based on Meteorological Parameters in Eastern India [0.0]
特定の地理的位置に対して太陽光発電(PV)発電量を推定することが重要である。
本稿では,太陽PV発電における気象パラメータの影響を,Bagging,Boosting,Stacking,VottingなどのEnsemble ML(EML)モデルを用いて推定する。
その結果,スタックモデルと投票モデルでは,約96%の予測精度が得られた。
論文 参考訳(メタデータ) (2023-01-21T19:16:03Z) - SIM-Trans: Structure Information Modeling Transformer for Fine-grained
Visual Categorization [59.732036564862796]
本稿では,オブジェクト構造情報を変換器に組み込んだSIM-Trans(Structure Information Modeling Transformer)を提案する。
提案した2つのモジュールは軽量化されており、任意のトランスフォーマーネットワークにプラグインでき、エンドツーエンドで容易に訓練できる。
実験と解析により,提案したSIM-Transが細粒度視覚分類ベンチマークの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-08-31T03:00:07Z) - Three things everyone should know about Vision Transformers [67.30250766591405]
トランスフォーマーアーキテクチャは コンピュータビジョンにおいて 急速に勢いを増しています
視覚変換器の変種をシンプルかつ容易に実装できる3つの洞察を提供する。
我々は、ImageNet-1kデータセットを用いて、これらの設計選択の影響を評価し、ImageNet-v2テストセットにおける結果を確認した。
論文 参考訳(メタデータ) (2022-03-18T08:23:03Z) - HyperTransformer: A Textural and Spectral Feature Fusion Transformer for
Pansharpening [60.89777029184023]
Pansharpeningは、登録された高分解能パノクロマトグラフィー画像(PAN)と低分解能ハイパースペクトル画像(LR-HSI)を融合して、高スペクトル・空間解像度の高分解能HSIを生成することを目的としている。
既存のパンシャルペン法は、HRテクスチャの特徴をPANからLR-HSIに伝達するアテンション機構を無視し、空間的およびスペクトル的歪みをもたらす。
本稿では, LR-HSI と PAN の特徴をそれぞれ変換器のクエリとキーとして定式化する HyperTransformer という, パンシャーピングのための新しいアテンション機構を提案する。
論文 参考訳(メタデータ) (2022-03-04T18:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。