論文の概要: Cloud4D
- arxiv url: http://arxiv.org/abs/2511.19431v1
- Date: Mon, 24 Nov 2025 18:59:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.384605
- Title: Cloud4D
- Title(参考訳): Cloud4D
- Authors: Jacob Lin, Edward Gryspeerdt, Ronald Clark,
- Abstract要約: Cloud4Dは、物理的に一貫した4次元のクラウド状態を再構築する最初の学習ベースのフレームワークです。
我々のシステムは、最先端の衛星計測と比較して、時空分解能のオーダー・オブ・マグニチュード向上を実現している。
- 参考スコア(独自算出の注目度): 8.745444691797067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been great progress in improving numerical weather prediction and climate models using machine learning. However, most global models act at a kilometer-scale, making it challenging to model individual clouds and factors such as extreme precipitation, wind gusts, turbulence, and surface irradiance. Therefore, there is a need to move towards higher-resolution models, which in turn require high-resolution real-world observations that current instruments struggle to obtain. We present Cloud4D, the first learning-based framework that reconstructs a physically consistent, four-dimensional cloud state using only synchronized ground-based cameras. Leveraging a homography-guided 2D-to-3D transformer, Cloud4D infers the full 3D distribution of liquid water content at 25 m spatial and 5 s temporal resolution. By tracking the 3D liquid water content retrievals over time, Cloud4D additionally estimates horizontal wind vectors. Across a two-month deployment comprising six skyward cameras, our system delivers an order-of-magnitude improvement in space-time resolution relative to state-of-the-art satellite measurements, while retaining single-digit relative error ($<10\%$) against collocated radar measurements. Code and data are available on our project page https://cloud4d.jacob-lin.com/.
- Abstract(参考訳): 機械学習を用いた数値気象予測と気候モデルの改善には大きな進歩があった。
しかし、ほとんどのグローバルモデルはキロスケールで作用するため、個々の雲や極度の降雨、風の噴出、乱流、表面照射などの要因をモデル化することは困難である。
そのため、高分解能モデルへの移行が必要であり、その結果、現在の機器が得るのに苦労する高分解能な実世界の観測が必要である。
我々は,同期地上カメラのみを使用して,物理的に一貫した4次元のクラウド状態を再構築する,最初の学習ベースのフレームワークであるCloud4Dを紹介する。
ホモグラフィ誘導型2D-to-3Dトランスを用いて、Cloud4Dは25mの空間と5秒の時間分解能で液体水分の完全な3D分布を推定する。
Cloud4Dは、時間とともに3D液体の水量検索を追跡することで、水平風ベクトルを推定する。
本システムでは,6基の天上カメラによる2ヶ月の展開において,1桁の相対誤差(<10\%)を維持しながら,最先端の衛星計測と比較して,時空分解能の高次化を実現している。
コードとデータはプロジェクトのページ https://cloud4d.jacob-lin.com/ で公開されている。
関連論文リスト
- 4D-ROLLS: 4D Radar Occupancy Learning via LiDAR Supervision [7.099012213719072]
我々は,LiDAR点雲を監視信号として用いた4Dレーダの4D-ROLLSを提案する。
モデルは、下流タスクのBEVセグメンテーションとポイントクラウド占有率予測にシームレスに転送される。
この軽量ネットワークにより、4D-ROLLSモデルは4060 GPUで約30Hzの高速な推論速度を実現することができる。
論文 参考訳(メタデータ) (2025-05-20T04:12:44Z) - REHEARSE-3D: A Multi-modal Emulated Rain Dataset for 3D Point Cloud De-raining [0.5668912212306543]
我々は,3Dポイント・クラウド・デレイニングにおける研究の進展を促進するため,大規模で多モードの降雨データセットREHEARSE-3Dを新たにリリースした。
第一に、4D Radar点雲に富む高解像度のLiDARデータを持つ唯一のデータセットである。
We benchmark raindrop detection and removal in fused LiDAR and 4D Radar point clouds。
論文 参考訳(メタデータ) (2025-04-30T14:43:38Z) - Easi3R: Estimating Disentangled Motion from DUSt3R Without Training [69.51086319339662]
Easi3Rは,4次元再構成のための簡易かつ効率的なトレーニングフリー手法である。
提案手法は,事前学習やネットワークファインチューニングの必要性を排除し,推論中の注意適応を適用した。
実世界のダイナミックビデオの実験では、従来の最先端手法よりも軽量な注意適応が著しく優れていたことが示されている。
論文 参考訳(メタデータ) (2025-03-31T17:59:58Z) - R2LDM: An Efficient 4D Radar Super-Resolution Framework Leveraging Diffusion Model [7.576799123793451]
R2LDMは高密度かつ高精度な4次元レーダーポイント雲を生成する革新的な手法である。
レンジ画像や鳥の目視(BEV)画像を利用する代わりに、ボクセル特徴を用いてLiDARと4Dレーダポイントの雲を表現します。
R2LDMは、ペアの生レーダーデータからLiDARのような点雲を効果的に生成する。
論文 参考訳(メタデータ) (2025-03-21T12:30:33Z) - 3D Point Cloud Generation via Autoregressive Up-sampling [60.05226063558296]
我々は3Dポイントクラウド生成のための先駆的な自己回帰生成モデルを導入する。
視覚的自己回帰モデリングにインスパイアされた我々は、ポイントクラウド生成を自己回帰的アップサンプリングプロセスとして概念化する。
PointARUは、3Dポイントの雲を粗いものから細かいものへと徐々に洗練する。
論文 参考訳(メタデータ) (2025-03-11T16:30:45Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - CloudCast: A Satellite-Based Dataset and Baseline for Forecasting Clouds [0.0]
本稿では,CloudCast'と呼ばれる新しい衛星ベースのデータセットを提案する。
画像は70,080枚で、雲の種類は10種類あり、大気の複数の層がピクセルレベルでアノテートされている。
データセットの空間解像度は928 x 1530ピクセル(1ピクセルあたり3x3km)で、2017-01-01から2018-12-31までのフレーム間隔は15分である。
論文 参考訳(メタデータ) (2020-07-15T20:20:55Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。