論文の概要: High-fidelity 3D Reconstruction of Plants using Neural Radiance Field
- arxiv url: http://arxiv.org/abs/2311.04154v1
- Date: Tue, 7 Nov 2023 17:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 14:33:37.489133
- Title: High-fidelity 3D Reconstruction of Plants using Neural Radiance Field
- Title(参考訳): ニューラルラジアンス場を用いた植物の高忠実度3次元再構成
- Authors: Kewei Hu, Ying Wei, Yaoqiang Pan, Hanwen Kang, Chao Chen
- Abstract要約: そこで本研究では,生産環境からの植物画像を構成する新しい植物データセットを提案する。
このデータセットは、農業の文脈におけるNeRFの利点と限界を包括的に探求することを目的とした、先駆的なイニシアチブである。
- 参考スコア(独自算出の注目度): 10.245620447865456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate reconstruction of plant phenotypes plays a key role in optimising
sustainable farming practices in the field of Precision Agriculture (PA).
Currently, optical sensor-based approaches dominate the field, but the need for
high-fidelity 3D reconstruction of crops and plants in unstructured
agricultural environments remains challenging. Recently, a promising
development has emerged in the form of Neural Radiance Field (NeRF), a novel
method that utilises neural density fields. This technique has shown impressive
performance in various novel vision synthesis tasks, but has remained
relatively unexplored in the agricultural context. In our study, we focus on
two fundamental tasks within plant phenotyping: (1) the synthesis of 2D
novel-view images and (2) the 3D reconstruction of crop and plant models. We
explore the world of neural radiance fields, in particular two SOTA methods:
Instant-NGP, which excels in generating high-quality images with impressive
training and inference speed, and Instant-NSR, which improves the reconstructed
geometry by incorporating the Signed Distance Function (SDF) during training.
In particular, we present a novel plant phenotype dataset comprising real plant
images from production environments. This dataset is a first-of-its-kind
initiative aimed at comprehensively exploring the advantages and limitations of
NeRF in agricultural contexts. Our experimental results show that NeRF
demonstrates commendable performance in the synthesis of novel-view images and
is able to achieve reconstruction results that are competitive with Reality
Capture, a leading commercial software for 3D Multi-View Stereo (MVS)-based
reconstruction. However, our study also highlights certain drawbacks of NeRF,
including relatively slow training speeds, performance limitations in cases of
insufficient sampling, and challenges in obtaining geometry quality in complex
setups.
- Abstract(参考訳): 植物表現型の正確な再構築は,精密農業(PA)分野における持続可能な農業実践の最適化に重要な役割を果たしている。
現在、光学センサによるアプローチがこの分野を支配しているが、非構造農業環境における作物や植物の高忠実な3D再構成の必要性は依然として困難である。
近年,神経密度場を利用した新しい手法であるNeRF(Neural Radiance Field)の形で,有望な発展がみられた。
この手法は、様々な新しい視覚合成タスクで印象的な性能を示したが、農業の文脈では、比較的未開拓のままである。
本研究では,植物表現学における2つの基本的な課題,(1)2次元新規画像の合成,(2)作物と植物モデルの3次元再構成に焦点を当てた。
ニューラルラジアンス場,特に2つのsota法について検討する。instant-ngpは印象的なトレーニングと推論速度で高品質な画像を生成するのに優れ,instant-nsrはトレーニング中に符号付き距離関数(sdf)を組み込むことで再構成された形状を改善する。
特に,実環境からの実際の植物画像を含む新しい植物表現型データセットを提案する。
このデータセットは、農業の文脈におけるNeRFの利点と限界を包括的に探求することを目的とした、先駆的なイニシアチブである。
実験の結果,NeRFは3Dマルチビューステレオ(MVS)をベースとした再構成のための商用ソフトウェアであるReal Captureと競合する再現性を実現することができることがわかった。
しかし,本研究では,比較的遅いトレーニング速度,サンプリングが不十分な場合のパフォーマンス制限,複雑なセットアップにおける幾何学的品質獲得の課題など,NeRFの欠点も強調した。
関連論文リスト
- CropCraft: Inverse Procedural Modeling for 3D Reconstruction of Crop Plants [16.558411700996746]
逆手続きモデルによる植物形態のモデル最適化に基づく農作物の3次元再構築手法を提案する。
本手法を農業現場の実画像のデータセット上で検証し, 様々なモニタリング・シミュレーションに応用できることを実証する。
論文 参考訳(メタデータ) (2024-11-14T18:58:02Z) - IOVS4NeRF:Incremental Optimal View Selection for Large-Scale NeRFs [3.9248546555042365]
本稿では,制限された入力予算内での3Dシーンのモデル化を目的とした,革新的なインクリメンタル・インクリメンタルなビュー選択フレームワークIOVS4NeRFを提案する。
最高の情報ゲインを提供するビューを選択することで、新規ビュー合成の品質を最小限の追加リソースで向上させることができる。
論文 参考訳(メタデータ) (2024-07-26T09:11:25Z) - 3D Reconstruction and New View Synthesis of Indoor Environments based on a Dual Neural Radiance Field [17.709306549110153]
我々は,高品質な幾何再構成とビューレンダリングを実現するために,デュアルニューラル放射場(Du-NeRF)を開発した。
Du-NeRFの革新的な特徴の1つは、ビュー非依存のコンポーネントを密度場から切り離し、SDFフィールドの学習プロセスを監督するためにラベルとして使用することである。
論文 参考訳(メタデータ) (2024-01-26T09:21:46Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - ResFields: Residual Neural Fields for Spatiotemporal Signals [61.44420761752655]
ResFieldsは、複雑な時間的信号を効果的に表現するために設計された新しいネットワークのクラスである。
本稿では,ResFieldの特性を包括的に解析し,トレーニング可能なパラメータの数を減らすための行列分解手法を提案する。
スパースRGBDカメラからダイナミックな3Dシーンをキャプチャする効果を示すことで,ResFieldsの実用性を実証する。
論文 参考訳(メタデータ) (2023-09-06T16:59:36Z) - Neural Radiance Fields (NeRFs): A Review and Some Recent Developments [0.0]
Neural Radiance Field(NeRF)は、完全に接続されたニューラルネットワークの重みの3Dシーンを表すフレームワークである。
ベースフレームワークの性能と能力を拡張する最近の開発によって、NeRFはポピュラーな研究分野になってきた。
論文 参考訳(メタデータ) (2023-04-30T03:23:58Z) - DehazeNeRF: Multiple Image Haze Removal and 3D Shape Reconstruction
using Neural Radiance Fields [56.30120727729177]
DehazeNeRFは,湿潤な環境下で頑健に動作するフレームワークとして紹介する。
提案手法は,複数視点のヘイズ除去,新しいビュー合成,既存手法が失敗する3次元形状再構成を成功させるものである。
論文 参考訳(メタデータ) (2023-03-20T18:03:32Z) - Factor Fields: A Unified Framework for Neural Fields and Beyond [50.29013417187368]
本稿では、信号のモデリングと表現のための新しいフレームワークであるFacter Fieldsを紹介する。
我々のフレームワークは、NeRF、Plenoxels、EG3D、Instant-NGP、TensoRFなどの最近の信号表現に対応している。
この表現は,2次元画像回帰作業における画像の近似精度の向上,3次元符号付き距離場再構築時の幾何学的品質の向上,および放射場再構成作業におけるコンパクト性の向上を実現している。
論文 参考訳(メタデータ) (2023-02-02T17:06:50Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。