論文の概要: IPENS:Interactive Unsupervised Framework for Rapid Plant Phenotyping Extraction via NeRF-SAM2 Fusion
- arxiv url: http://arxiv.org/abs/2505.13633v1
- Date: Mon, 19 May 2025 18:13:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.477215
- Title: IPENS:Interactive Unsupervised Framework for Rapid Plant Phenotyping Extraction via NeRF-SAM2 Fusion
- Title(参考訳): IPENS-Interactive Unsupervised Framework for Rapid Plant Phenotyping extract through NeRF-SAM2 Fusion (特集 バイオサイバネティックスとバイオサイバネティックス)
- Authors: Wentao Song, He Huang, Youqiang Sun, Fang Qu, Jiaqi Zhang, Longhui Fang, Yuwei Hao, Chenyang Peng,
- Abstract要約: IPENSは、教師なしマルチターゲットポイントクラウド抽出手法である。
粒度セグメンテーション精度(mIoU)は63.72%である。
また、コムギデータセットのセグメンテーション精度を89.68%(mIoU)に改善する。
- 参考スコア(独自算出の注目度): 7.103482669612749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced plant phenotyping technologies play a crucial role in targeted trait improvement and accelerating intelligent breeding. Due to the species diversity of plants, existing methods heavily rely on large-scale high-precision manually annotated data. For self-occluded objects at the grain level, unsupervised methods often prove ineffective. This study proposes IPENS, an interactive unsupervised multi-target point cloud extraction method. The method utilizes radiance field information to lift 2D masks, which are segmented by SAM2 (Segment Anything Model 2), into 3D space for target point cloud extraction. A multi-target collaborative optimization strategy is designed to effectively resolve the single-interaction multi-target segmentation challenge. Experimental validation demonstrates that IPENS achieves a grain-level segmentation accuracy (mIoU) of 63.72% on a rice dataset, with strong phenotypic estimation capabilities: grain volume prediction yields R2 = 0.7697 (RMSE = 0.0025), leaf surface area R2 = 0.84 (RMSE = 18.93), and leaf length and width predictions achieve R2 = 0.97 and 0.87 (RMSE = 1.49 and 0.21). On a wheat dataset,IPENS further improves segmentation accuracy to 89.68% (mIoU), with equally outstanding phenotypic estimation performance: spike volume prediction achieves R2 = 0.9956 (RMSE = 0.0055), leaf surface area R2 = 1.00 (RMSE = 0.67), and leaf length and width predictions reach R2 = 0.99 and 0.92 (RMSE = 0.23 and 0.15). This method provides a non-invasive, high-quality phenotyping extraction solution for rice and wheat. Without requiring annotated data, it rapidly extracts grain-level point clouds within 3 minutes through simple single-round interactions on images for multiple targets, demonstrating significant potential to accelerate intelligent breeding efficiency.
- Abstract(参考訳): 高等植物表現型技術は、標的形質の改善と知的繁殖の促進に重要な役割を担っている。
植物の種多様性のため、既存の手法は手動による大規模な高精度データに大きく依存している。
穀物レベルでの自己排他的対象に対して、教師なしの方法はしばしば効果がないことを証明している。
本研究では,対話型マルチターゲットクラウド抽出手法であるIPENSを提案する。
この方法は、放射界情報を用いてSAM2(Segment Anything Model 2)で区切られた2Dマスクを目標点雲抽出のための3D空間に持ち上げる。
マルチターゲット協調最適化戦略は、単一相互作用のマルチターゲットセグメンテーション課題を効果的に解決するために設計されている。
実験による検証では、IPENSがイネデータセット上で63.72%の粒度セグメンテーション精度(mIoU)を達成し、強い表現型推定能力を有することが示されている: 粒度予測はR2 = 0.7697(RMSE = 0.0025)、葉の表面積はR2 = 0.84(RMSE = 18.93)、葉長予測と幅予測はR2 = 0.97および0.87(RMSE = 1.49, 0.21)である。
スパイク体積予測はR2 = 0.9956 (RMSE = 0.0055)、リーフ表面積R2 = 1.00 (RMSE = 0.67)、リーフ長さと幅予測はR2 = 0.99, 0.92 (RMSE = 0.23, 0.15)となる。
イネ及び小麦の非侵襲的で高品質な表現型抽出液を提供する。
注釈付きデータを必要とせずに、複数のターゲットの画像に対する単純な単一ラウンドの相互作用を通じて、3分以内に穀物レベルの点雲を素早く抽出し、インテリジェントな繁殖効率を加速する大きな可能性を示している。
関連論文リスト
- Wheat3DGS: In-field 3D Reconstruction, Instance Segmentation and Phenotyping of Wheat Heads with Gaussian Splatting [1.4100451538155885]
We present Wheat3DGS, a novel approach that leverageing 3DGS and the Segment Anything Model (SAM) for accurate 3D instance segmentation and morphological Measurement of hundreds of wheat head automatically。
高分解能レーザースキャンデータによるコムギの育種頭部抽出の精度を検証し, 長さ, 幅, 体積に対して15.1%, 18.3%, 40.2%の絶対値誤差が得られた。
論文 参考訳(メタデータ) (2025-04-09T15:31:42Z) - Deep Learning-Based Direct Leaf Area Estimation using Two RGBD Datasets for Model Development [6.663132872468536]
単一葉面積の推定は作物の生育の指標であり,新品種を育むための表現型形質である。
本研究では,実世界のシナリオにおいて,モバイルカメラを用いたRGBD画像の深層学習に基づく葉面積推定について検討する。
論文 参考訳(メタデータ) (2025-03-13T07:39:09Z) - PanicleNeRF: low-cost, high-precision in-field phenotypingof rice panicles with smartphone [4.441945709704536]
PanicleNeRFは,スマートフォンを用いた現場における水稲パニックモデルの高精度かつ低コストな再構築を可能にする新しい手法である。
結果: PanicleNeRFは2次元画像分割作業に効果的に対応し、平均F1スコアは86.9%、平均IoUは79.8%であった。
本発明の方法は、米の育種効率を向上し、低コストでイネパニックの表現型化を図り得る方法である。
論文 参考訳(メタデータ) (2024-08-04T15:01:16Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - KECOR: Kernel Coding Rate Maximization for Active 3D Object Detection [48.66703222700795]
我々は、ラベルの取得に最も有用なポイントクラウドを特定するために、新しいカーネル戦略を利用する。
1段目(SECOND)と2段目(SECOND)の両方に対応するため、アノテーションに選択した境界ボックスの総数と検出性能のトレードオフをよく組み込んだ分類エントロピー接点を組み込んだ。
その結果,ボックスレベルのアノテーションのコストは約44%,計算時間は26%削減された。
論文 参考訳(メタデータ) (2023-07-16T04:27:03Z) - Detecting Rotated Objects as Gaussian Distributions and Its 3-D
Generalization [81.29406957201458]
既存の検出方法は、パラメータ化バウンディングボックス(BBox)を使用して(水平)オブジェクトをモデル化し、検出する。
このような機構は回転検出に有効な回帰損失を構築するのに基本的な限界があると主張する。
回転した物体をガウス分布としてモデル化することを提案する。
2次元から3次元へのアプローチを、方向推定を扱うアルゴリズム設計により拡張する。
論文 参考訳(メタデータ) (2022-09-22T07:50:48Z) - Generative models-based data labeling for deep networks regression:
application to seed maturity estimation from UAV multispectral images [3.6868861317674524]
種子の成熟度モニタリングは、気候変動とより制限的な慣行による農業における課題の増加である。
従来の手法は、フィールドでの限られたサンプリングと実験室での分析に基づいている。
マルチスペクトルUAV画像を用いたパセリ種子の成熟度推定手法の提案と,自動ラベリングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-09T09:06:51Z) - Robust Representation via Dynamic Feature Aggregation [44.927408735490005]
ディープ畳み込みニューラルネットワーク(CNN)ベースのモデルは、敵の攻撃に対して脆弱である。
本稿では,新しい正規化により埋め込み空間を圧縮する動的特徴集約法を提案する。
CIFAR-10における攻撃法の平均精度は56.91%である。
論文 参考訳(メタデータ) (2022-05-16T06:22:15Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Fusing Optical and SAR time series for LAI gap filling with multioutput
Gaussian processes [6.0122901245834015]
農地上の永久雲は、作物の生育の重要な段階を隠蔽し、信頼できない収量予測をもたらす。
SAR(Synthetic Aperture Radar)は、この制限を克服できるオールウェザー画像を提供する。
本稿では,マルチセンサ時系列間の統計的関係を自動的に学習する機械学習手法であるMOGP回帰(Multi-Output Gaussian Process)を提案する。
論文 参考訳(メタデータ) (2020-12-05T10:36:45Z) - ROAM: Random Layer Mixup for Semi-Supervised Learning in Medical Imaging [43.26668942258135]
医療画像のセグメンテーションは、機械学習の手法が抱える大きな課題の1つだ。
我々はRandOm lAyer MixupのROAMを提案する。
ROAMは、全脳セグメンテーションに対してそれぞれ2.40%と16.50%の相対的な改善を施した、完全に監督された(89.5%)と半監督された(87.0%)設定のSOTA(State-of-the-art)を達成している。
論文 参考訳(メタデータ) (2020-03-20T18:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。