論文の概要: AICCA: AI-driven Cloud Classification Atlas
- arxiv url: http://arxiv.org/abs/2209.15096v1
- Date: Thu, 29 Sep 2022 21:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 16:28:19.815978
- Title: AICCA: AI-driven Cloud Classification Atlas
- Title(参考訳): AICCA: AI駆動のクラウド分類Atlas
- Authors: Takuya Kurihana, Elisabeth Moyer, Ian Foster
- Abstract要約: 本研究は, 衛星雲観測の次元性を, 自動化された非教師なしの雲分類技術を用いてグループ化することによって低減する。
このアプローチを使用して、AI駆動型クラウド分類アトラス(AICCA)という、ユニークな新しいクラウドデータセットを生成します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clouds play an important role in the Earth's energy budget and their behavior
is one of the largest uncertainties in future climate projections. Satellite
observations should help in understanding cloud responses, but decades and
petabytes of multispectral cloud imagery have to date received only limited
use. This study reduces the dimensionality of satellite cloud observations by
grouping them via a novel automated, unsupervised cloud classification
technique by using a convolutional neural network. Our technique combines a
rotation-invariant autoencoder with hierarchical agglomerative clustering to
generate cloud clusters that capture meaningful distinctions among cloud
textures, using only raw multispectral imagery as input. Thus, cloud classes
are defined without reliance on location, time/season, derived physical
properties, or pre-designated class definitions. We use this approach to
generate a unique new cloud dataset, the AI-driven cloud classification atlas
(AICCA), which clusters 22 years of ocean images from the Moderate Resolution
Imaging Spectroradiometer (MODIS) on NASA's Aqua and Terra instruments - 800 TB
of data or 198 million patches roughly 100 km x 100 km (128 x 128 pixels) -
into 42 AI-generated cloud classes. We show that AICCA classes involve
meaningful distinctions that employ spatial information and result in distinct
geographic distributions, capturing, for example, stratocumulus decks along the
West coasts of North and South America. AICCA delivers the information in
multi-spectral images in a compact form, enables data-driven diagnosis of
patterns of cloud organization, provides insight into cloud evolution on
timescales of hours to decades, and helps democratize climate research by
facilitating access to core data.
- Abstract(参考訳): 雲は地球のエネルギー予算において重要な役割を果たし、その行動は将来の気候予測における最大の不確実性の一つである。
衛星による観測は雲の応答を理解するのに役立つはずだが、何十年もの間、多スペクトルの雲の画像は限られた使用しか受けられていなかった。
本研究は,畳み込みニューラルネットワークを用いた新しい自動教師なし雲分類手法により,衛星雲観測の次元性を低減する。
本手法は, 回転不変オートエンコーダと階層的凝集クラスタリングを組み合わせることで, クラウドテクスチャ間の有意義な区別を捉えるクラウドクラスタを生成する。
したがって、クラウドクラスは、場所、時間/シーズン、引き起こされた物理的特性、事前指定されたクラス定義に依存することなく定義される。
このアプローチは、NASAのAquaとTerraの計器であるMODIS(Moderate Resolution Imaging Spectroradiometer)から22年間の海洋画像(約800 TBのデータまたは198万のパッチ)を、約100 km x 100 km (128 x 128 pixels)のAI生成クラウドクラスに集約するAI駆動型クラウド分類アトラス(AICCA)を生成するために使用される。
AICCAクラスは空間情報を利用した意味ある区別を伴い,その結果として地理的分布が異なることを示し,例えば,北米と南米の西海岸沿いの成層丘デッキを捕獲した。
AICCAは、コンパクトな形式でマルチスペクトル画像に情報を提供し、クラウド組織のパターンをデータ駆動で診断し、数時間から数十年の時間スケールでクラウドの進化に関する洞察を提供し、コアデータへのアクセスを容易にすることで気候研究の民主化を支援する。
関連論文リスト
- Point Cloud Compression with Implicit Neural Representations: A Unified Framework [54.119415852585306]
我々は幾何学と属性の両方を扱える先駆的なクラウド圧縮フレームワークを提案する。
本フレームワークでは,2つの座標ベースニューラルネットワークを用いて,voxelized point cloudを暗黙的に表現する。
本手法は,既存の学習手法と比較して,高い普遍性を示す。
論文 参考訳(メタデータ) (2024-05-19T09:19:40Z) - Masked Spatio-Temporal Structure Prediction for Self-supervised Learning
on Point Cloud Videos [75.9251839023226]
人間のアノテーションを使わずにポイントクラウドビデオの構造をキャプチャするMasked-temporal Structure Prediction (MaST-Pre)法を提案する。
MaST-Preは,2つの自己指導型学習タスクから構成される。まず,マスク付きポイントチューブを再構築することにより,ポイントクラウドビデオの出現情報を捉えることができる。
第2に、動作を学習するために、点管内の点数の変化を推定する時間的濃度差予測タスクを提案する。
論文 参考訳(メタデータ) (2023-08-18T02:12:54Z) - Patch-Wise Point Cloud Generation: A Divide-and-Conquer Approach [83.05340155068721]
分割・分散アプローチを用いた新しい3dポイントクラウド生成フレームワークを考案する。
すべてのパッチジェネレータは学習可能な事前情報に基づいており、幾何学的プリミティブの情報を取得することを目的としている。
最も人気のあるポイントクラウドデータセットであるShapeNetのさまざまなオブジェクトカテゴリに関する実験結果は、提案したパッチワイドポイントクラウド生成の有効性を示している。
論文 参考訳(メタデータ) (2023-07-22T11:10:39Z) - Insight into cloud processes from unsupervised classification with a
rotationally invariant autoencoder [10.739352302280667]
現在の雲分類スキームは1ピクセルの雲の性質に基づいており、空間構造やテクスチャを考慮できない。
コンピュータビジョンの最近の進歩は、人間の事前に定義されたラベルを使わずに、画像の異なるパターンをグループ化することを可能にする。
新たなAI駆動型クラウド分類アトラス(AICCA)の生成にこのような手法を用いることについて述べる。
論文 参考訳(メタデータ) (2022-11-02T04:08:32Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - Cloud Classification with Unsupervised Deep Learning [6.285964948191585]
我々のフレームワークは、NASAのMODIS(Moderate Resolution Imaging Spectroradiometer)衛星機器によって生成された放射データから直接雲の特徴を学習する。
本手法は,放射データから物理的に関連のある情報を抽出し,意味のあるクラウドクラスを生成することを示す予備的な結果を示す。
論文 参考訳(メタデータ) (2022-09-30T16:56:58Z) - Unsupervised Point Cloud Representation Learning with Deep Neural
Networks: A Survey [104.71816962689296]
大規模クラウドラベリングの制約により,教師なしのポイントクラウド表現学習が注目されている。
本稿では、ディープニューラルネットワークを用いた教師なしポイントクラウド表現学習の総合的なレビューを提供する。
論文 参考訳(メタデータ) (2022-02-28T07:46:05Z) - NeeDrop: Self-supervised Shape Representation from Sparse Point Clouds
using Needle Dropping [80.2485282512607]
スパース点雲から形状表現を学習するための自己教師型手法NeeDropを紹介する。
形状の知識は不要で、例えば車によって取得されたライダー点雲のように、点雲は疎くすることができる。
形状復元データセットにおける既存の教師ありアプローチと同等の定量的な結果が得られる。
論文 参考訳(メタデータ) (2021-11-30T08:35:20Z) - Classification and understanding of cloud structures via satellite
images with EfficientUNet [0.0]
CNN(Convolutional Neural Network)の新しいスケールアップバージョンを用いて,クラウド組織パターンの分類を行った。
ダイス係数は最終評価基準に使われており、カグル競技においてそれぞれ66.26%と66.02%のスコアを得た。
論文 参考訳(メタデータ) (2020-09-27T19:50:05Z) - CloudCast: A Satellite-Based Dataset and Baseline for Forecasting Clouds [0.0]
本稿では,CloudCast'と呼ばれる新しい衛星ベースのデータセットを提案する。
画像は70,080枚で、雲の種類は10種類あり、大気の複数の層がピクセルレベルでアノテートされている。
データセットの空間解像度は928 x 1530ピクセル(1ピクセルあたり3x3km)で、2017-01-01から2018-12-31までのフレーム間隔は15分である。
論文 参考訳(メタデータ) (2020-07-15T20:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。