論文の概要: DeepForest: Sensing Into Self-Occluding Volumes of Vegetation With Aerial Imaging
- arxiv url: http://arxiv.org/abs/2502.02171v1
- Date: Tue, 04 Feb 2025 09:45:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:56:38.186521
- Title: DeepForest: Sensing Into Self-Occluding Volumes of Vegetation With Aerial Imaging
- Title(参考訳): DeepForest: 空中イメージングによる自己排他的植生量検出
- Authors: Mohamed Youssef, Jian Peng, Oliver Bimber,
- Abstract要約: リモートセンシングの長期的限界は、深い天蓋層に深く浸透する。
現在、LiDARとレーダーは3D植生構造を測定するための主要な選択肢と考えられている。
我々のアプローチは、森林のような自己排他的な植生の量を感知することを可能にする。
我々は、ドローンによる合成開口イメージングにより焦点スタックをスキャンし、事前訓練された3D畳み込みニューラルネットワークを用いて、焦点外信号のコントリビューションを低減する。
- 参考スコア(独自算出の注目度): 8.093958936744807
- License:
- Abstract: Access to below-canopy volumetric vegetation data is crucial for understanding ecosystem dynamics. We address the long-standing limitation of remote sensing to penetrate deep into dense canopy layers. LiDAR and radar are currently considered the primary options for measuring 3D vegetation structures, while cameras can only extract the reflectance and depth of top layers. Using conventional, high-resolution aerial images, our approach allows sensing deep into self-occluding vegetation volumes, such as forests. It is similar in spirit to the imaging process of wide-field microscopy, but can handle much larger scales and strong occlusion. We scan focal stacks by synthetic-aperture imaging with drones and reduce out-of-focus signal contributions using pre-trained 3D convolutional neural networks. The resulting volumetric reflectance stacks contain low-frequency representations of the vegetation volume. Combining multiple reflectance stacks from various spectral channels provides insights into plant health, growth, and environmental conditions throughout the entire vegetation volume.
- Abstract(参考訳): 生態系の動態を理解するためには,下流域の植生データへのアクセスが不可欠である。
リモートセンシングの長期的限界に対処し、密集した天蓋層に深く浸透する。
現在、LiDARとレーダーは3D植生構造を測定するための主要な選択肢と考えられており、カメラは最上層の反射率と深さだけを抽出できる。
従来の高解像度空中画像を用いて,森林などの植生の自己排他的深度を感知する手法を提案する。
広視野顕微鏡の撮像法に似ているが、はるかに大きなスケールと強い閉塞を処理できる。
我々は、ドローンによる合成開口イメージングにより焦点スタックをスキャンし、事前訓練された3D畳み込みニューラルネットワークを用いて、焦点外信号のコントリビューションを低減する。
結果の体積反射率スタックは、植生体積の低周波表現を含む。
様々なスペクトルチャネルから複数の反射率スタックを組み合わせることで、植物全体の健康、成長、環境状況に関する洞察が得られる。
関連論文リスト
- Comparative Analysis of Novel View Synthesis and Photogrammetry for 3D Forest Stand Reconstruction and extraction of individual tree parameters [2.153174198957389]
光度測定は一般的に森林の景観の再構築に使われるが、低効率や低品質といった課題に直面している。
NeRFは、天蓋領域ではよいが、視野が限られている地上領域ではエラーが発生する可能性がある。
3DGS法は胸の高さ(DBH)の精度に影響を及ぼすスペーサー点雲を生成する。
論文 参考訳(メタデータ) (2024-10-08T07:53:21Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Low dosage 3D volume fluorescence microscopy imaging using compressive
sensing [0.0]
本稿では, 圧縮センシングによる3Dボリュームの完全再構成を, 励起量の半分未満のSNRで行う方法を提案する。
ゼブラフィッシュ胚脊髄のRFP標識ニューロンの3次元体積を, 共焦点顕微鏡を用いて0.1umの軸方向サンプリングにより計測し, 本手法の実証を行った。
この研究で開発されたCSベースの手法は、2光子や光シート顕微鏡などの他の深部イメージングに容易に適用でき、サンプル光毒性の低減は重要な課題である。
論文 参考訳(メタデータ) (2022-01-03T18:44:50Z) - RVMDE: Radar Validated Monocular Depth Estimation for Robotics [5.360594929347198]
両眼視センサの固有剛性校正は正確な深度推定に不可欠である。
あるいは、単眼カメラは、深度推定の精度を犠牲にして制限を緩和し、厳しい環境条件下では課題が悪化する。
本研究は, 環境条件下での深度推定のために, 単眼カメラの細粒度データと融合した場合のレーダーからの粗い信号の有用性について検討する。
論文 参考訳(メタデータ) (2021-09-11T12:02:29Z) - A Hybrid mmWave and Camera System for Long-Range Depth Imaging [6.665586494560167]
mmWaveレーダーは、ミリ波無線周波数での高帯域幅のため、優れた奥行き分解能を提供する。
しかし、本来は角分解能が悪く、これはカメラシステムより桁違いに悪いため、独立して3Dイメージングソリューションにはならない。
本稿では,レーダーとカメラシステムの相補的な強度を組み合わせたメタモランを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:19:35Z) - Robust super-resolution depth imaging via a multi-feature fusion deep
network [2.351601888896043]
単一光子感度検出器(SPAD)アレイによる光検出・測光(LIDAR)は、高フレームレートで深度画像の取得を可能にする新興技術である。
我々は、カメラのヒストグラムデータから抽出できる複数の特徴を活用するために構築されたディープネットワークを開発する。
ネットワークを様々な3Dデータに適用し,デノナイジングと4倍の解像度の深度向上を実証する。
論文 参考訳(メタデータ) (2020-11-20T14:24:12Z) - SelfDeco: Self-Supervised Monocular Depth Completion in Challenging
Indoor Environments [50.761917113239996]
自己教師付き単分子深度補完のための新しいアルゴリズムを提案する。
提案手法は,深度ラベルを含まない疎深度測定とそれに対応する単眼ビデオシーケンスのみを必要とするニューラルネットワークのトレーニングに基づく。
我々の自己監督アルゴリズムは、テクスチャのない領域、光沢のない透明な表面、非ランバートの表面、動く人々、より長く多様な深度範囲、複雑なエゴモーションによって捉えられたシーンを含む屋内環境に挑戦するために設計されている。
論文 参考訳(メタデータ) (2020-11-10T08:55:07Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。