論文の概要: Under-Canopy Terrain Reconstruction in Dense Forests Using RGB Imaging and Neural 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2601.22861v1
- Date: Fri, 30 Jan 2026 11:38:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.410904
- Title: Under-Canopy Terrain Reconstruction in Dense Forests Using RGB Imaging and Neural 3D Reconstruction
- Title(参考訳): RGB画像とニューラル3次元再構成による高密度森林の地層構造復元
- Authors: Refael Sheffer, Chen Pinchover, Haim Zisman, Dror Ozeri, Roee Litman,
- Abstract要約: 従来のRGB画像のみを用いた天蓋のない光写実的地上ビューの再構築のための新しいアプローチを提案する。
提案手法は,最近の3次元再構成法であるNeRF(Neural Radiance Fields)に基づく。
- 参考スコア(独自算出の注目度): 0.565453222062465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mapping the terrain and understory hidden beneath dense forest canopies is of great interest for numerous applications such as search and rescue, trail mapping, forest inventory tasks, and more. Existing solutions rely on specialized sensors: either heavy, costly airborne LiDAR, or Airborne Optical Sectioning (AOS), which uses thermal synthetic aperture photography and is tailored for person detection. We introduce a novel approach for the reconstruction of canopy-free, photorealistic ground views using only conventional RGB images. Our solution is based on the celebrated Neural Radiance Fields (NeRF), a recent 3D reconstruction method. Additionally, we include specific image capture considerations, which dictate the needed illumination to successfully expose the scene beneath the canopy. To better cope with the poorly lit understory, we employ a low light loss. Finally, we propose two complementary approaches to remove occluding canopy elements by controlling per-ray integration procedure. To validate the value of our approach, we present two possible downstream tasks. For the task of search and rescue (SAR), we demonstrate that our method enables person detection which achieves promising results compared to thermal AOS (using only RGB images). Additionally, we show the potential of our approach for forest inventory tasks like tree counting. These results position our approach as a cost-effective, high-resolution alternative to specialized sensors for SAR, trail mapping, and forest-inventory tasks.
- Abstract(参考訳): 密度の高い森林キャノピーの下に隠れた地形や下層をマッピングすることは、探索や救助、トレイルマッピング、森林の在庫管理など、多くの応用に非常に関心がある。
既存のソリューションは、重くて高価なLiDARや、熱合成開口写真を使って人検出用に調整されたAirborne Optical Sectioning(AOS)など、特殊なセンサーに依存している。
従来のRGB画像のみを用いた天蓋のない光写実的地上ビューの再構築のための新しいアプローチを提案する。
提案手法は,最近の3次元再構成法であるNeRF(Neural Radiance Fields)に基づく。
さらに、天蓋下のシーンをうまく露出させるために必要な照明を指示する、特定の画像キャプチャーの考察も含んでいる。
照明の弱い下層階に対処するため、光の損失が低い。
最後に, 2 つの相補的手法により, 包括的天蓋要素を除去する手法を提案する。
提案手法の有効性を検証するために,下流タスクを2つ提示する。
本研究では,サーチ・アンド・レスキュー(SAR)の課題として,サーマルAOS(RGB画像のみ)と比較して有望な結果が得られる人物検出が可能であることを実証する。
また,樹木の伐採などの森林在庫業務へのアプローチの可能性も示した。
これらの結果から,SAR,トレイルマッピング,森林開発作業のための特殊なセンサに代わる,コスト効率の高い高分解能な代替手段として,我々のアプローチを位置づけた。
関連論文リスト
- Comparative Analysis of Novel View Synthesis and Photogrammetry for 3D Forest Stand Reconstruction and extraction of individual tree parameters [2.153174198957389]
光度測定は一般的に森林の景観の再構築に使われるが、低効率や低品質といった課題に直面している。
NeRFは、天蓋領域ではよいが、視野が限られている地上領域ではエラーが発生する可能性がある。
3DGS法は胸の高さ(DBH)の精度に影響を及ぼすスペーサー点雲を生成する。
論文 参考訳(メタデータ) (2024-10-08T07:53:21Z) - LumiGauss: Relightable Gaussian Splatting in the Wild [15.11759492990967]
本稿では,LumiGaussについて紹介する。LumiGaussは2次元ガウススプラッティングによるシーンの3次元再構成と環境照明を実現する技術である。
提案手法は高品質なシーン再構成を実現し,新しい環境マップ下でのリアルな照明合成を実現する。
提案手法をNeRF-OSRデータセット上で検証し,ベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-06T23:41:57Z) - Finding Waldo: Towards Efficient Exploration of NeRF Scene Spaces [4.944459754818577]
我々は,NeRFモデル入力の効率的な発見として,シーン探索フレームワークを提案し,正式に定義する。
シーン探索に対処するアプローチの欠如を解決するため,まず誘導ランダム探索 (GRS) と詩補間探索 (PIBS) という2つのベースライン手法を提案する。
そこで我々は,シーン探索を最適化問題としてキャストし,探索のための基準に依存しない進化誘導ポッドサーチ(EGPS)を提案する。
論文 参考訳(メタデータ) (2024-03-07T14:08:01Z) - ShadowSense: Unsupervised Domain Adaptation and Feature Fusion for
Shadow-Agnostic Tree Crown Detection from RGB-Thermal Drone Imagery [7.2038295985918825]
本稿では,リモートセンシングデータから木冠の影を検出する新しい手法を提案する。
提案手法(ShadowSense)は完全に自己教師型であり,ソースドメインアノテーションを使わずにドメインの敵対的トレーニングを活用する。
その後、両モードの相補的な情報を融合し、RGBで訓練された検出器の予測を効果的に改善する。
論文 参考訳(メタデータ) (2023-10-24T22:01:14Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - Adversarial Domain Feature Adaptation for Bronchoscopic Depth Estimation [111.89519571205778]
そこで本研究では,深度推定のためのドメイン適応手法を提案する。
提案する2段階構造は,まず,ラベル付き合成画像を用いた深度推定ネットワークを教師付きで訓練する。
実験の結果,提案手法は実画像上でのネットワーク性能をかなりの差で向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-24T08:11:34Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。