論文の概要: Depth Any Canopy: Leveraging Depth Foundation Models for Canopy Height Estimation
- arxiv url: http://arxiv.org/abs/2408.04523v1
- Date: Thu, 8 Aug 2024 15:24:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 15:18:18.461435
- Title: Depth Any Canopy: Leveraging Depth Foundation Models for Canopy Height Estimation
- Title(参考訳): Depth Any Canopy: キャノピー高さ推定のためのDepth Foundationモデルを活用する
- Authors: Daniele Rege Cambrin, Isaac Corley, Paolo Garza,
- Abstract要約: 世界樹高の推定は森林保全と気候変動の応用に不可欠である。
効率的な代替手段として、キャノピーの高さ推定器を訓練して、単一ビューのリモートセンシング画像を操作する方法がある。
近年の単眼深度推定基礎モデルでは,複雑なシーンにおいても強いゼロショット性能を示した。
- 参考スコア(独自算出の注目度): 4.69726714177332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating global tree canopy height is crucial for forest conservation and climate change applications. However, capturing high-resolution ground truth canopy height using LiDAR is expensive and not available globally. An efficient alternative is to train a canopy height estimator to operate on single-view remotely sensed imagery. The primary obstacle to this approach is that these methods require significant training data to generalize well globally and across uncommon edge cases. Recent monocular depth estimation foundation models have show strong zero-shot performance even for complex scenes. In this paper we leverage the representations learned by these models to transfer to the remote sensing domain for measuring canopy height. Our findings suggest that our proposed Depth Any Canopy, the result of fine-tuning the Depth Anything v2 model for canopy height estimation, provides a performant and efficient solution, surpassing the current state-of-the-art with superior or comparable performance using only a fraction of the computational resources and parameters. Furthermore, our approach requires less than \$1.30 in compute and results in an estimated carbon footprint of 0.14 kgCO2. Code, experimental results, and model checkpoints are openly available at https://github.com/DarthReca/depth-any-canopy.
- Abstract(参考訳): 世界樹高の推定は森林保全と気候変動の応用に不可欠である。
しかし、LiDARを用いた高解像度地上真理天蓋の高さの撮影は高価であり、全世界で利用できない。
効率的な代替手段として、キャノピーの高さ推定器を訓練して、単一ビューのリモートセンシング画像を操作する方法がある。
このアプローチの主な障害は、これらの手法が、グローバルにまたがって、一般的でないエッジケースをまたがって適切に一般化するために、重要なトレーニングデータを必要とすることである。
近年の単眼深度推定基礎モデルでは,複雑なシーンにおいても強いゼロショット性能を示した。
本稿では,これらのモデルから得られた表現を活用して,キャノピー高さを測定するためにリモートセンシング領域に転送する。
提案したDepth Any Canopyは, キャノピー高さ推定のためのDepth Anything v2モデルを微調整した結果, 計算資源とパラメータのごく一部しか使用せず, 最先端ないし同等の性能で, 高性能かつ効率的な解が得られたことを示唆する。
さらに、計算には1.30ドル以下が必要であり、その結果炭素フットプリントは0.14kgCO2と推定される。
コード、実験結果、モデルチェックポイントはhttps://github.com/DarthReca/depth-any-canopy.comで公開されている。
関連論文リスト
- DepthSplat: Connecting Gaussian Splatting and Depth [90.06180236292866]
ガウススプラッティングと深さ推定を結合するDepthSplatを提案する。
まず,事前学習した単眼深度特徴を生かして,頑健な多眼深度モデルを提案する。
また,ガウス的スプラッティングは教師なし事前学習の目的として機能することを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:58Z) - TanDepth: Leveraging Global DEMs for Metric Monocular Depth Estimation in UAVs [5.6168844664788855]
本研究は,推定時間における相対的推定値から計量深度値を求めるための,実践的なオンラインスケール回復手法であるTanDepthを提案する。
本手法は無人航空機(UAV)の用途に応用され,GDEM(Global Digital Elevation Models)のスパース計測をカメラビューに投影することで活用する。
推定深度マップから接地点を選択して、投影された基準点と相関するクラスシミュレーションフィルタへの適応を示す。
論文 参考訳(メタデータ) (2024-09-08T15:54:43Z) - Open-Canopy: A Country-Scale Benchmark for Canopy Height Estimation at Very High Resolution [37.96456541856852]
超高解像度(1.5m)キャノピー高さ推定のための最初のオープンアクセスおよびカントリースケールのベンチマークであるOpen-Canopyを紹介する。
また、異なる年に撮影された2つの画像間の天蓋の高さ変化検出のための最初のベンチマークであるOpen-Canopy-$Delta$を提案する。
論文 参考訳(メタデータ) (2024-07-12T16:16:24Z) - ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data [87.61900472933523]
この研究は、ロバストな単分子深度推定のための非常に実用的な解であるDepth Anythingを提示する。
データエンジンを設計し、大規模な未ラベルデータの収集と注釈付けを自動的に行うことにより、データセットをスケールアップします。
6つのパブリックデータセットとランダムにキャプチャされた写真を含む、ゼロショットの機能を広範囲に評価する。
論文 参考訳(メタデータ) (2024-01-19T18:59:52Z) - Deep Neighbor Layer Aggregation for Lightweight Self-Supervised
Monocular Depth Estimation [1.6775954077761863]
文脈的特徴融合を用いた完全畳み込み深度推定ネットワークを提案する。
UNet++やHRNetと比較して、我々は、小さなターゲットや高速移動オブジェクトに関する情報を予約するために、高解像度で低解像度の機能を使用します。
本手法は精度を犠牲にすることなくパラメータを削減する。
論文 参考訳(メタデータ) (2023-09-17T13:40:15Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - Very high resolution canopy height maps from RGB imagery using
self-supervised vision transformer and convolutional decoder trained on
Aerial Lidar [14.07306593230776]
本稿では,複数の非国家の管轄区域で同時に作成される最初の高分解能天蓋の高さマップについて述べる。
地図は、2017年から2020年にかけて、マクサー画像に基づいて訓練された自己教師モデルから特徴を抽出することによって生成される。
また、GEDI観測に基づいて訓練された畳み込みネットワークを用いた後処理のステップも導入する。
論文 参考訳(メタデータ) (2023-04-14T15:52:57Z) - Monocular Visual-Inertial Depth Estimation [66.71452943981558]
単眼深度推定と視覚慣性計測を統合した視覚慣性深度推定パイプラインを提案する。
提案手法は, 疎度度に対する大域的スケールとシフトアライメントを行い, 続いて学習に基づく高密度アライメントを行う。
本研究では,TartanAir と VOID のデータセットを用いて,密集したスケールアライメントによるRMSE の最大30%の削減を観測した。
論文 参考訳(メタデータ) (2023-03-21T18:47:34Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - HR-Depth: High Resolution Self-Supervised Monocular Depth Estimation [14.81943833870932]
本稿では,2つの効果的な戦略を持つ改良DepthNet,HR-Depthを提案する。
resnet-18をエンコーダとして使用すると、hr-depthは、高解像度と低解像度の両方で最小パラマエターを持つ、以前の最先端(sota)メソッドをすべて上回る。
論文 参考訳(メタデータ) (2020-12-14T09:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。