論文の概要: Segregation and Context Aggregation Network for Real-time Cloud Segmentation
- arxiv url: http://arxiv.org/abs/2504.14178v1
- Date: Sat, 19 Apr 2025 04:47:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 04:25:26.940743
- Title: Segregation and Context Aggregation Network for Real-time Cloud Segmentation
- Title(参考訳): リアルタイムクラウドセグメンテーションのためのセグメンテーションとコンテキストアグリゲーションネットワーク
- Authors: Yijie Li, Hewei Wang, Jiayi Zhang, Jinjiang You, Jinfeng Xu, Puzhen Wu, Yunzhong Xiao, Soumyabrata Dev,
- Abstract要約: 地上のスカイ/クラウドセグメンテーションは、さらなる特徴分析のために雲を抽出する。
SCANetは、新しい軽量クラウドセグメンテーションモデルである。
SCANetは、計算の複雑さを大幅に減らしながら、最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 16.33805395655703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud segmentation from intensity images is a pivotal task in atmospheric science and computer vision, aiding weather forecasting and climate analysis. Ground-based sky/cloud segmentation extracts clouds from images for further feature analysis. Existing methods struggle to balance segmentation accuracy and computational efficiency, limiting real-world deployment on edge devices, so we introduce SCANet, a novel lightweight cloud segmentation model featuring Segregation and Context Aggregation Module (SCAM), which refines rough segmentation maps into weighted sky and cloud features processed separately. SCANet achieves state-of-the-art performance while drastically reducing computational complexity. SCANet-large (4.29M) achieves comparable accuracy to state-of-the-art methods with 70.9% fewer parameters. Meanwhile, SCANet-lite (90K) delivers 1390 fps in FP16, surpassing real-time standards. Additionally, we propose an efficient pre-training strategy that enhances performance even without ImageNet pre-training.
- Abstract(参考訳): 強度画像からの雲のセグメンテーションは大気科学やコンピュータビジョンにおいて重要な課題であり、天気予報や気候分析を支援する。
地上のスカイ/クラウドセグメンテーションは、さらなる特徴分析のために画像から雲を抽出する。
既存の手法では,セグメント化の精度と計算効率のバランスがとれず,エッジデバイスへの実世界の展開を制限しているので,SegregationとContext Aggregation Module(SCAM)を特徴とする新しい軽量クラウドセグメンテーションモデルであるSCANetを導入する。
SCANetは、計算の複雑さを大幅に減らしながら、最先端のパフォーマンスを達成する。
SCANet-large (4.29M)は70.9%のパラメータを持つ最先端のメソッドに匹敵する精度を実現している。
一方、SCANet-lite (90K)はFP16で1390fpsを提供し、リアルタイム標準を超えている。
さらに,ImageNetの事前学習を必要とせずに,性能を向上させる効率的な事前学習戦略を提案する。
関連論文リスト
- UCloudNet: A Residual U-Net with Deep Supervision for Cloud Image Segmentation [10.797462947568954]
クラウドセグメンテーションの深い監督を伴う残留U-Netを導入する。
従来のアプローチよりも精度が良く、トレーニングの消費も少ない。
論文 参考訳(メタデータ) (2025-01-11T05:15:24Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Effective pruning of web-scale datasets based on complexity of concept
clusters [48.125618324485195]
本稿では,大規模なマルチモーダルデータセットを抽出し,イメージネット上でCLIPスタイルのモデルを訓練する手法を提案する。
高品質なデータのより小さなセットでのトレーニングは、トレーニングコストを大幅に削減して、より高いパフォーマンスをもたらす可能性があることに気付きました。
我々は38の評価タスクにおいて、新しい最先端のImagehttps://info.arxiv.org/help/prep#commentsネットゼロショット精度と競合平均ゼロショット精度を実現する。
論文 参考訳(メタデータ) (2024-01-09T14:32:24Z) - Distribution-aware Interactive Attention Network and Large-scale Cloud
Recognition Benchmark on FY-4A Satellite Image [24.09239785062109]
我々は,正確なクラウド認識のための新しいデータセットを開発した。
領域適応法を用いて,70,419個の画像ラベル対を投影,時間分解能,空間分解能の点で整列する。
また,高解像度ブランチと並列クロスブランチにより画素レベルの詳細を保存できる分散対応インタラクティブアテンションネットワーク(DIAnet)を導入する。
論文 参考訳(メタデータ) (2024-01-06T09:58:09Z) - CLiSA: A Hierarchical Hybrid Transformer Model using Orthogonal Cross
Attention for Satellite Image Cloud Segmentation [5.178465447325005]
ディープラーニングアルゴリズムは画像セグメンテーション問題を解決するための有望なアプローチとして登場してきた。
本稿では,Lipschitz Stable Attention NetworkによるCLiSA - Cloudセグメンテーションという,効果的なクラウドマスク生成のためのディープラーニングモデルを提案する。
Landsat-8, Sentinel-2, Cartosat-2sを含む複数の衛星画像データセットの質的および定量的な結果を示す。
論文 参考訳(メタデータ) (2023-11-29T09:31:31Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - CP-Net: Contour-Perturbed Reconstruction Network for Self-Supervised
Point Cloud Learning [53.1436669083784]
本稿では,CP-Net(Contour-Perturbed Restruction Network)を提案する。
分類では、ModelNet40(92.5%の精度)とScanObjectNN(87.9%の精度)の完全教師付き手法で競合する結果を得る。
論文 参考訳(メタデータ) (2022-01-20T15:04:12Z) - CSC-Unet: A Novel Convolutional Sparse Coding Strategy Based Neural
Network for Semantic Segmentation [0.44289311505645573]
本稿では,一般的な畳み込み操作を多層畳み込み符号化ブロックに書き換える新しい戦略を提案する。
多層畳み込みスパース符号化ブロックは,セマンティックセグメンテーションモデルをより高速に収束させ,画像のより微細なセマンティックおよび外観情報を抽出し,空間的詳細情報を復元する能力を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-08-01T09:16:31Z) - Rethinking BiSeNet For Real-time Semantic Segmentation [6.622485130017622]
BiSeNetはリアルタイムセグメンテーションのための人気のある2ストリームネットワークであることが証明されている。
本稿では,stdc( short-term dense concatenate network)と呼ばれる新しい構造を提案する。
論文 参考訳(メタデータ) (2021-04-27T13:49:47Z) - Real-time Semantic Segmentation with Fast Attention [94.88466483540692]
本稿では,高解像度画像と映像をリアルタイムにセマンティックセグメンテーションするための新しいアーキテクチャを提案する。
提案したアーキテクチャは我々の空間的注意の速さに依存しており、これは一般的な自己注意機構の単純かつ効率的な修正である。
複数のデータセットに対する結果から,既存の手法に比べて精度と速度が向上し,優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-07T22:37:16Z) - Real-time Semantic Segmentation via Spatial-detail Guided Context
Propagation [49.70144583431999]
本研究では,リアルタイムセマンティックセグメンテーションを実現するための空間詳細ガイド付きコンテキスト伝搬ネットワーク(SGCPNet)を提案する。
浅い層の空間的詳細を利用して低解像度のグローバルコンテキストの伝播を誘導し、失われた空間情報を効果的に再構成することができる。
69.5%のmIoUセグメンテーション精度を実現し、GeForce GTX 1080 Tiの768x1536イメージ上で178.5 FPSに達する。
論文 参考訳(メタデータ) (2020-05-22T07:07:26Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。