論文の概要: FloodVision: Urban Flood Depth Estimation Using Foundation Vision-Language Models and Domain Knowledge Graph
- arxiv url: http://arxiv.org/abs/2509.04772v1
- Date: Fri, 05 Sep 2025 03:05:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.460893
- Title: FloodVision: Urban Flood Depth Estimation Using Foundation Vision-Language Models and Domain Knowledge Graph
- Title(参考訳): FloodVision:ファンデーションビジョンランゲージモデルとドメイン知識グラフを用いた都市洪水深度推定
- Authors: Zhangding Liu, Neda Mohammadi, John E. Taylor,
- Abstract要約: FloodVisionはゼロショットフレームワークであり、基礎的なビジョン言語モデルであるGPT-4oと構造化されたドメイン知識グラフのセマンティック推論能力を組み合わせたものである。
FloodVisionは8.17cmの平均的な絶対誤差を達成し、GPT-4oベースラインの10.28cmを20.5%削減し、CNNベースの手法を上回りました。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Timely and accurate floodwater depth estimation is critical for road accessibility and emergency response. While recent computer vision methods have enabled flood detection, they suffer from both accuracy limitations and poor generalization due to dependence on fixed object detectors and task-specific training. To enable accurate depth estimation that can generalize across diverse flood scenarios, this paper presents FloodVision, a zero-shot framework that combines the semantic reasoning abilities of the foundation vision-language model GPT-4o with a structured domain knowledge graph. The knowledge graph encodes canonical real-world dimensions for common urban objects including vehicles, people, and infrastructure elements to ground the model's reasoning in physical reality. FloodVision dynamically identifies visible reference objects in RGB images, retrieves verified heights from the knowledge graph to mitigate hallucination, estimates submergence ratios, and applies statistical outlier filtering to compute final depth values. Evaluated on 110 crowdsourced images from MyCoast New York, FloodVision achieves a mean absolute error of 8.17 cm, reducing the GPT-4o baseline 10.28 cm by 20.5% and surpassing prior CNN-based methods. The system generalizes well across varying scenes and operates in near real-time, making it suitable for future integration into digital twin platforms and citizen-reporting apps for smart city flood resilience.
- Abstract(参考訳): タイムリーかつ正確な洪水深度推定は道路のアクセシビリティと緊急対応に不可欠である。
最近のコンピュータビジョン手法では洪水検出が可能になっているが、固定された物体検出器とタスク固有の訓練に依存するため、精度の限界と一般化の欠如に悩まされている。
多様な洪水シナリオにまたがる正確な深度推定を可能にするために,基礎視覚言語モデル GPT-4o のセマンティック推論能力と構造化ドメイン知識グラフを組み合わせたゼロショットフレームワーク FloodVision を提案する。
ナレッジグラフは、車、人、インフラ要素を含む一般的な都市オブジェクトの標準的な実世界の次元をエンコードし、物理的現実におけるモデルの推論の基礎となる。
FloodVisionはRGB画像中の可視的参照オブジェクトを動的に識別し、知識グラフから検証された高さを検索して幻覚を緩和し、沈み込み比を推定し、最終的な深さ値を計算するために統計的外れ値フィルタリングを適用する。
MyCoast New Yorkの110枚のクラウドソース画像から評価すると、FloodVisionは平均絶対誤差8.17cmを達成し、GPT-4oベースラインの10.28cmを20.5%削減し、CNNベースの手法を抜いた。
このシステムは、さまざまな場面にまたがってうまく一般化され、ほぼリアルタイムで動作し、将来のデジタルツインプラットフォームへの統合や、スマートシティの洪水回復のための市民報告アプリに適合する。
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - TanDepth: Leveraging Global DEMs for Metric Monocular Depth Estimation in UAVs [5.6168844664788855]
本研究は,推定時間における相対的推定から距離深度を求めるための実用的スケール回復手法であるTanDepthを提示する。
提案手法は,GDEM(Global Digital Elevation Models)のスパース計測をカメラビューに投影することで活用する。
推定深度マップから接地点を選択して、投影された基準点と相関するクラスフィルタシミュレーションへの適応を示す。
論文 参考訳(メタデータ) (2024-09-08T15:54:43Z) - Automated Floodwater Depth Estimation Using Large Multimodal Model for
Rapid Flood Mapping [0.0]
本稿では, 現場の洪水写真から洪水深度を推定するための, 自動的かつ高速なアプローチを提案する。
事前訓練された大型マルチモーダルモデルであるGPT-4 Visionは、特に洪水水を推定するために使用された。
その結果, 提案手法は, 洪水写真からの洪水深度を迅速かつ確実に推定できることを示した。
論文 参考訳(メタデータ) (2024-02-26T16:02:15Z) - Do More With What You Have: Transferring Depth-Scale from Labeled to Unlabeled Domains [43.16293941978469]
自己教師付き深度推定器は、ドメイン全体の絶対深度値と線形に相関する大規模予測をもたらす。
トレーニング前の2つのデータセットのフィールド・オブ・ビューの整合性は、両方のドメインに共通な線形関係をもたらすことを示す。
観測された特性を用いて、絶対深度ラベルを持つソースデータセットから、これらの測定を欠いた新しいターゲットデータセットへ、深度スケールを転送する。
論文 参考訳(メタデータ) (2023-03-14T07:07:34Z) - An evaluation of deep learning models for predicting water depth
evolution in urban floods [59.31940764426359]
高空間分解能水深予測のための異なる深層学習モデルの比較を行った。
深層学習モデルはCADDIESセル-オートマタフラッドモデルによってシミュレーションされたデータを再現するために訓練される。
その結果,ディープラーニングモデルでは,他の手法に比べて誤差が低いことがわかった。
論文 参考訳(メタデータ) (2023-02-20T16:08:54Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Improving Emergency Response during Hurricane Season using Computer
Vision [0.06882042556551608]
我々は,コンピュータビジョン(CV),内陸洪水予知,被害評価,データ可視化といった最新の技術を組み込んだ危機対応・管理のためのフレームワークを開発した。
我々のコンピュータビジョンモデルは、自然災害の前後で、宇宙と空中の画像を分析して、関連する特徴を検出する。
画像から水、道路、建物、植生などの特徴を識別するモデル群を設計した。
論文 参考訳(メタデータ) (2020-08-17T15:42:02Z) - Breaking the Limits of Remote Sensing by Simulation and Deep Learning
for Flood and Debris Flow Mapping [13.167695669500391]
リモートセンシング画像から浸水深度と破砕流による地形変形を推定する枠組みを提案する。
水と破片の流れシミュレータは、様々な人工災害シナリオのトレーニングデータを生成する。
このような合成データに基づいてトレーニングされた注意U-NetおよびLinkNetアーキテクチャに基づく回帰モデルにより,最大水位と地形変形を予測することができることを示す。
論文 参考訳(メタデータ) (2020-06-09T10:59:15Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。