論文の概要: Near Real-Time Dust Aerosol Detection with 3D Convolutional Neural Networks on MODIS Data
- arxiv url: http://arxiv.org/abs/2509.05887v1
- Date: Sun, 07 Sep 2025 01:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.763275
- Title: Near Real-Time Dust Aerosol Detection with 3D Convolutional Neural Networks on MODIS Data
- Title(参考訳): MODISデータを用いた3次元畳み込みニューラルネットワークによる近接リアルタイムダストエアロゾル検出
- Authors: Caleb Gates, Patrick Moorhead, Jayden Ferguson, Omar Darwish, Conner Stallman, Pablo Rivas, Paapa Quansah,
- Abstract要約: 我々は、NASAのTerraとAquaのマルチバンド画像を用いて、ピクセルレベルでほこりをフラグするほぼリアルタイムシステムを提案する。
3D畳み込みネットワークは、36のバンドと分割された熱バンドのパターンを学習し、雲と表面の特徴から塵を分離する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dust storms harm health and reduce visibility; quick detection from satellites is needed. We present a near real-time system that flags dust at the pixel level using multi-band images from NASA's Terra and Aqua (MODIS). A 3D convolutional network learns patterns across all 36 bands, plus split thermal bands, to separate dust from clouds and surface features. Simple normalization and local filling handle missing data. An improved version raises training speed by 21x and supports fast processing of full scenes. On 17 independent MODIS scenes, the model reaches about 0.92 accuracy with a mean squared error of 0.014. Maps show strong agreement in plume cores, with most misses along edges. These results show that joint band-and-space learning can provide timely dust alerts at global scale; using wider input windows or attention-based models may further sharpen edges.
- Abstract(参考訳): ダストストームは健康に害を与え、視界を低下させる。
我々は,NASAのTerra and Aqua (MODIS)のマルチバンド画像を用いて,画素レベルで塵をフラグするほぼリアルタイムシステムを提案する。
3D畳み込みネットワークは、36のバンドと分割された熱バンドのパターンを学習し、雲と表面の特徴から塵を分離する。
単純な正規化とローカルフィリングは、欠落したデータを処理します。
改良されたバージョンでは、トレーニング速度が21倍に向上し、フルシーンの高速処理をサポートする。
17の独立したMODISシーンでは、平均2乗誤差0.014で約0.92の精度に達する。
地図はプルームコアで強い合意を示しており、ほとんどのミスはエッジに沿っている。
これらの結果から,広義の入力窓やアテンションベースモデルを用いることで,宇宙空間での共同学習がタイムリーなダスト警告を世界規模で提供できることが示唆された。
関連論文リスト
- AllClear: A Comprehensive Dataset and Benchmark for Cloud Removal in Satellite Imagery [38.538566901989526]
クラウド削除のために$textitAllClear$という,世界最大のパブリックデータセットを紹介します。
このデータセットは、地球の表面を包括的にカバーし、より良い雲の除去結果を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-31T12:52:52Z) - Mesh2NeRF: Direct Mesh Supervision for Neural Radiance Field Representation and Generation [51.346733271166926]
Mesh2NeRFは、3次元生成タスクのためのテクスチャメッシュから地上構造放射場を導出するアプローチである。
各種タスクにおけるMesh2NeRFの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-28T11:22:53Z) - Fast Training of Diffusion Transformer with Extreme Masking for 3D Point
Clouds Generation [64.99362684909914]
我々は,効率的な3次元点雲生成に適したマスク付き拡散変圧器であるFastDiT-3Dを提案する。
また,新しいボクセル対応マスキング手法を提案し,ボクセル化点雲から背景・地上情報を適応的に集約する。
本手法は, マスキング比が99%近い最先端性能を実現する。
論文 参考訳(メタデータ) (2023-12-12T12:50:33Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - SST: Real-time End-to-end Monocular 3D Reconstruction via Sparse
Spatial-Temporal Guidance [71.3027345302485]
リアルタイムモノクル3D再構成は未解決の課題である。
視覚SLAMシステムからのスパース推定点を利用したエンドツーエンドの3D再構成ネットワークSSTを提案する。
SSTは、59FPSで高い推論速度を維持しながら、最先端の競合他社よりも優れています。
論文 参考訳(メタデータ) (2022-12-13T12:17:13Z) - SM3D: Simultaneous Monocular Mapping and 3D Detection [1.2183405753834562]
本稿では,同時マッピングと3次元検出のための,革新的で効率的なマルチタスク深層学習フレームワーク(SM3D)を提案する。
両モジュールのエンドツーエンドのトレーニングにより、提案したマッピングと3D検出は、最先端のベースラインを10.0%、精度13.2%で上回っている。
我々の単分子マルチタスクSM3Dは純粋なステレオ3D検出器の2倍以上の速度で、2つのモジュールを別々に使用するより18.3%速い。
論文 参考訳(メタデータ) (2021-11-24T17:23:37Z) - High-speed object detection with a single-photon time-of-flight image
sensor [2.648554238948439]
我々は,64×32の空間解像度で16ビンの光子タイミングヒストグラムを出力する携帯型SPADカメラシステムの結果を報告する。
結果は、人間の反応時間よりも早く恩恵を受けるであろう安全クリティカルなコンピュータビジョンアプリケーションに関係している。
論文 参考訳(メタデータ) (2021-07-28T14:53:44Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - Boundary-Aware Dense Feature Indicator for Single-Stage 3D Object
Detection from Point Clouds [32.916690488130506]
本稿では,3次元検出器が境界を意識して点雲の最も密集した領域に焦点を合わせるのを支援する普遍モジュールを提案する。
KITTIデータセットの実験により、DENFIはベースライン単段検出器の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T01:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。