論文の概要: Biomass phenotyping of oilseed rape through UAV multi-view oblique imaging with 3DGS and SAM model
- arxiv url: http://arxiv.org/abs/2411.08453v1
- Date: Wed, 13 Nov 2024 09:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:11:14.132874
- Title: Biomass phenotyping of oilseed rape through UAV multi-view oblique imaging with 3DGS and SAM model
- Title(参考訳): 3DGSおよびSAMモデルを用いたUAV多視点斜めイメージングによる油種レイプのバイオマス表現
- Authors: Yutao Shen, Hongyu Zhou, Xin Yang, Xuqi Lu, Ziyue Guo, Lixi Jiang, Yong He, Haiyan Cen,
- Abstract要約: 本研究は, 油種レイプの正確な3次元再構成とバイオマス推定のために, 3次元ガウススティング(3DGS)とSAM(Segment Anything Model)を統合した。
3DGSは精度が高く、ピーク信号対雑音比(PSNR)は27.43、トレーニング時間は7分49分であった。
SAMモジュールは、結合(mIoU)が0.961、F1スコアが0.980で高いセグメンテーション精度を達成した。
- 参考スコア(独自算出の注目度): 18.13908148656987
- License:
- Abstract: Biomass estimation of oilseed rape is crucial for optimizing crop productivity and breeding strategies. While UAV-based imaging has advanced high-throughput phenotyping, current methods often rely on orthophoto images, which struggle with overlapping leaves and incomplete structural information in complex field environments. This study integrates 3D Gaussian Splatting (3DGS) with the Segment Anything Model (SAM) for precise 3D reconstruction and biomass estimation of oilseed rape. UAV multi-view oblique images from 36 angles were used to perform 3D reconstruction, with the SAM module enhancing point cloud segmentation. The segmented point clouds were then converted into point cloud volumes, which were fitted to ground-measured biomass using linear regression. The results showed that 3DGS (7k and 30k iterations) provided high accuracy, with peak signal-to-noise ratios (PSNR) of 27.43 and 29.53 and training times of 7 and 49 minutes, respectively. This performance exceeded that of structure from motion (SfM) and mipmap Neural Radiance Fields (Mip-NeRF), demonstrating superior efficiency. The SAM module achieved high segmentation accuracy, with a mean intersection over union (mIoU) of 0.961 and an F1-score of 0.980. Additionally, a comparison of biomass extraction models found the point cloud volume model to be the most accurate, with an determination coefficient (R2) of 0.976, root mean square error (RMSE) of 2.92 g/plant, and mean absolute percentage error (MAPE) of 6.81%, outperforming both the plot crop volume and individual crop volume models. This study highlights the potential of combining 3DGS with multi-view UAV imaging for improved biomass phenotyping.
- Abstract(参考訳): 油種レイプのバイオマス推定は,作物の生産性と育種戦略の最適化に不可欠である。
UAVベースのイメージングは、高スループットの表現型化が進んでいるが、現在の手法は、複雑なフィールド環境において、葉の重なり合いや不完全な構造情報に苦しむ整形画像に頼っていることが多い。
本研究は, 油種レイプの正確な3次元再構成とバイオマス推定のために, 3次元ガウススティング(3DGS)とSAM(Segment Anything Model)を統合した。
SAMモジュールにより,36角からのUAV多視点斜め画像を用いて3次元再構成を行った。
分割された点雲はその後点雲体積に変換され, 線形回帰を用いて地表面測定されたバイオマスに適合した。
その結果、3DGS (7kと30kの繰り返し) は、ピーク信号対雑音比 (PSNR) が27.43と29.53であり、トレーニング時間は7と49分であった。
この性能は、運動(SfM)とミップマップニューラルレイディアンス場(Mip-NeRF)の構造よりも優れ、優れた効率を示した。
SAMモジュールは、結合(mIoU)が0.961、F1スコアが0.980で高いセグメンテーション精度を達成した。
さらに、バイオマス抽出モデルの比較により、点雲体積モデルが最も正確であることが判明し、決定係数(R2)が0.976、根平均二乗誤差(RMSE)が2.92g/プラント、絶対パーセンテージ誤差(MAPE)が6.81%となり、プロットの作物体積モデルと個々の作物体積モデルの両方を上回った。
本研究は, 3DGSと多視点UAVイメージングを組み合わせることにより, バイオマスのフェノタイピングが向上する可能性を明らかにする。
関連論文リスト
- NeFF-BioNet: Crop Biomass Prediction from Point Cloud to Drone Imagery [11.976195465657236]
本稿では,バイオマス予測ネットワーク(BioNet)を,点雲やドローン画像など,さまざまなデータモダリティに適応するためのネットワークとして提案する。
我々のBioNetは、スパース3D畳み込みニューラルネットワーク(CNN)とトランスフォーマーベースの予測モジュールを利用して、ポイントクラウドやその他の3Dデータ表現を処理し、バイオマスを予測する。
ドローン画像のためのBioNetをさらに拡張するため,ニューラル・フィーチャーフィールド(NeFF)モジュールを統合し,3次元構造再構成と2次元意味的特徴の対応する3次元面への変換を可能にする。
論文 参考訳(メタデータ) (2024-10-30T04:53:11Z) - Dual-band feature selection for maturity classification of specialty crops by hyperspectral imaging [5.905721043072562]
イチゴやトマトなどの特産作物の成熟度分類は、農業の下流における重要な活動である。
近年のDeep Learningの進歩は、成熟度分類のためのカラー画像の奨励的な結果を生み出している。
成熟度分類のための特徴抽出法を提案する。
論文 参考訳(メタデータ) (2024-05-16T10:01:16Z) - Mapping Walnut Water Stress with High Resolution Multispectral UAV
Imagery and Machine Learning [0.0]
本研究では、ランダムフォレストモデル(RF)を用いて、茎水電位(SWP)をマッピングする機械学習手法を提案する。
2017年から2018年にかけて、商業用クルミ果樹園で7バンドのマルチスペクトルカメラを搭載したUAVの5回の飛行が行われた。
直交UAV画像と気象データから得られた植生指標を利用したRF回帰モデルにより,効果的に地盤計測SWPを推定する。
RF分類モデルでは, クルミの木中の水ストレスレベルを85%の精度で予測し, 還元された分類モデルの80%を超える精度を示した。
論文 参考訳(メタデータ) (2023-12-30T02:58:45Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - ConsistentNeRF: Enhancing Neural Radiance Fields with 3D Consistency for
Sparse View Synthesis [99.06490355990354]
本研究では,深度情報を利用して画素間のマルチビューとシングルビューの3D整合性を調整する手法であるConsistentNeRFを提案する。
提案手法は,PSNRが94%,SSIMが31%,LPIPSが31%,疎視条件下でのモデル性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T15:18:01Z) - Generating high-quality 3DMPCs by adaptive data acquisition and
NeREF-based radiometric calibration with UGV plant phenotyping system [3.7387019397567793]
本研究では, 適応データ取得とラジオメトリックキャリブレーションにより高品質な3DMPCを生産する手法を提案する。
プラント全体のデータの完全性は、固定された視点のみと比較して平均23.6%向上した。
3Dキャリブレーションプラント3DMPCは、クロロフィル含有量のPLSRの予測精度を向上し、R2では平均0.07、RMSEでは平均21.25%向上した。
論文 参考訳(メタデータ) (2023-05-11T12:59:21Z) - EATFormer: Improving Vision Transformer Inspired by Evolutionary Algorithm [111.17100512647619]
本稿では、実証された実用的な進化的アルゴリズム(EA)と類似したビジョントランスフォーマーの合理性を説明する。
本稿では,EA ベースのトランス (EAT) ブロックのみを含む新しいピラミッド EATFormer バックボーンを提案する。
画像分類,下流タスク,説明実験に関する大規模かつ定量的な実験は,我々のアプローチの有効性と優位性を示すものである。
論文 参考訳(メタデータ) (2022-06-19T04:49:35Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - A Multi-Stage model based on YOLOv3 for defect detection in PV panels
based on IR and Visible Imaging by Unmanned Aerial Vehicle [65.99880594435643]
本研究では,無人航空機が捉えた空中画像のパネル欠陥を検出するための新しいモデルを提案する。
このモデルは、パネルと欠陥の検出を組み合わせることで、精度を向上する。
提案モデルはイタリア南部の2つの大きなPVプラントで検証されている。
論文 参考訳(メタデータ) (2021-11-23T08:04:32Z) - Deep learning of multi-resolution X-Ray micro-CT images for multi-scale
modelling [0.0]
本研究では3次元拡張深部超解像(EDSR)畳み込みニューラルネットワークを開発し,大規模空間スケールで高分解能データを生成する。
我々は,テキスト解析,セグメンテーション動作,多相流シミュレーション(PNM)を用いてネットワークを検証した。
EDSR生成モデルは、不均一性の存在下での実験挙動を予測するための基礎LRモデルよりも精度が高い。
論文 参考訳(メタデータ) (2021-11-01T21:49:22Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。