論文の概要: VISION: Prompting Ocean Vertical Velocity Reconstruction from Incomplete Observations
- arxiv url: http://arxiv.org/abs/2509.21477v1
- Date: Thu, 25 Sep 2025 19:41:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.950618
- Title: VISION: Prompting Ocean Vertical Velocity Reconstruction from Incomplete Observations
- Title(参考訳): VISION:不完全観測による海面鉛直速度の再現
- Authors: Yuan Gao, Hao Wu, Qingsong Wen, Kun Wang, Xian Wu, Xiaomeng Huang,
- Abstract要約: 我々は、ペタスケールシミュレーションによる高分解能海洋力学ベンチマークKD48を構築し、リリースする。
次に、動的プロンプトに基づく新しい再構成パラダイムであるVISIONを紹介する。
VISIONの本質は、利用可能な観測のサブセットから視覚的なプロンプトをオンザフライで生成できる能力にある。
- 参考スコア(独自算出の注目度): 43.810496295396355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing subsurface ocean dynamics, such as vertical velocity fields, from incomplete surface observations poses a critical challenge in Earth science, a field long hampered by the lack of standardized, analysis-ready benchmarks. To systematically address this issue and catalyze research, we first build and release KD48, a high-resolution ocean dynamics benchmark derived from petascale simulations and curated with expert-driven denoising. Building on this benchmark, we introduce VISION, a novel reconstruction paradigm based on Dynamic Prompting designed to tackle the core problem of missing data in real-world observations. The essence of VISION lies in its ability to generate a visual prompt on-the-fly from any available subset of observations, which encodes both data availability and the ocean's physical state. More importantly, we design a State-conditioned Prompting module that efficiently injects this prompt into a universal backbone, endowed with geometry- and scale-aware operators, to guide its adaptive adjustment of computational strategies. This mechanism enables VISION to precisely handle the challenges posed by varying input combinations. Extensive experiments on the KD48 benchmark demonstrate that VISION not only substantially outperforms state-of-the-art models but also exhibits strong generalization under extreme data missing scenarios. By providing a high-quality benchmark and a robust model, our work establishes a solid infrastructure for ocean science research under data uncertainty. Our codes are available at: https://github.com/YuanGao-YG/VISION.
- Abstract(参考訳): 不完全な表面観測から垂直速度場のような地下の力学を再構築することは、地球科学において重要な課題となる。
この問題を体系的に解決し,研究を触媒する目的で,我々はまず,ペタスケールシミュレーションから得られた高分解能海洋力学ベンチマークであるKD48を構築してリリースする。
このベンチマークに基づいて、現実の観測において欠落するデータのコア問題に対処するために設計された、ダイナミック・プロンプティングに基づく新しい再構成パラダイムであるVISIONを紹介する。
VISIONの本質は、データ可用性と海洋の物理的状態の両方をエンコードする、利用可能な観測のサブセットから、視覚的なプロンプトをオンザフライで生成できる能力にある。
より重要なことは、我々は、このプロンプトを動的バックボーンに効率的に注入する状態条件付きプロンプティングモジュールを設計し、その計算戦略の適応調整を導くために、幾何学およびスケールアウェア演算子を付与する。
このメカニズムにより、VISIONは様々な入力の組み合わせによって生じる課題を正確に処理できる。
KD48ベンチマークでの大規模な実験により、VISIONは最先端のモデルよりも大幅に優れるだけでなく、極端なデータ不足シナリオ下での強力な一般化も示している。
高品質なベンチマークとロバストなモデルを提供することで、データ不確実性の下で海洋科学研究の確かな基盤を確立します。
私たちのコードは、https://github.com/YuanGao-YG/VISION.comで利用可能です。
関連論文リスト
- RoHOI: Robustness Benchmark for Human-Object Interaction Detection [78.18946529195254]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - Underwater Monocular Metric Depth Estimation: Real-World Benchmarks and Synthetic Fine-Tuning with Vision Foundation Models [0.0]
実世界の水中データセットを用いたゼロショットおよび微調整単分子メートル法深度推定モデルのベンチマークを示す。
その結果,地上データ(実データや合成データ)に基づいて訓練した大規模モデルでは,水中での作業は不十分であることがわかった。
本研究では,水中における単分子距離深度推定の詳細な評価と可視化を行う。
論文 参考訳(メタデータ) (2025-07-02T21:06:39Z) - ACMamba: Fast Unsupervised Anomaly Detection via An Asymmetrical Consensus State Space Model [51.83639270669481]
ハイパースペクトル画像(HSI)における教師なし異常検出は、背景から未知のターゲットを検出することを目的としている。
HSI研究は、HSIの高次元特性と高密度サンプリングベーストレーニングパラダイムにより、計算コストの急激さによって妨げられている。
計算コストを大幅に削減する非対称コンセンサス状態空間モデル(ACMamba)を提案する。
論文 参考訳(メタデータ) (2025-04-16T05:33:42Z) - GEOBench-VLM: Benchmarking Vision-Language Models for Geospatial Tasks [84.86699025256705]
本稿では,地理空間的タスクの視覚言語モデル(VLM)を評価するためのベンチマークであるGEOBench-VLMを提案する。
私たちのベンチマークでは、手動で検証された命令が1万以上あり、さまざまな視覚条件、オブジェクトタイプ、スケールにまたがっています。
地理空間固有の課題における性能を評価するために,いくつかの最先端のVLMを評価した。
論文 参考訳(メタデータ) (2024-11-28T18:59:56Z) - Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - Multi-Modal Learning-based Reconstruction of High-Resolution Spatial
Wind Speed Fields [46.72819846541652]
本稿では,Variデータ同化とディープラーニングの概念に基づくフレームワークを提案する。
この枠組みは、海面風速に関する高解像度のリッチインタイムを回復するために応用される。
論文 参考訳(メタデータ) (2023-12-14T13:40:39Z) - Assessment of a new GeoAI foundation model for flood inundation mapping [4.312965283062856]
そこで本稿は,IBM-NASAのPrithviによる地空間基盤モデルの性能評価を行い,地空間解析の重要課題である洪水浸水マッピングを支援する。
実験では、ベンチマークデータセットであるSen1Floods11を使用し、モデルの予測可能性、一般化可能性、転送可能性を評価する。
以上の結果から, 未確認領域におけるセグメンテーションにおけるPrithviモデルの性能上の優位性が示された。
論文 参考訳(メタデータ) (2023-09-25T19:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。