論文の概要: In-Field 3D Wheat Head Instance Segmentation From TLS Point Clouds Using Deep Learning Without Manual Labels
- arxiv url: http://arxiv.org/abs/2603.14309v1
- Date: Sun, 15 Mar 2026 09:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.735919
- Title: In-Field 3D Wheat Head Instance Segmentation From TLS Point Clouds Using Deep Learning Without Manual Labels
- Title(参考訳): 手動ラベルのない深層学習を用いたTLS点雲からの現地3次元小麦頭部のセグメンテーション
- Authors: Tomislav Medic, Liangliang Nan,
- Abstract要約: 本研究では,地上レーザー走査(TLS)点群から直接,フィールド内小麦頭部のインスタンス・セグメンテーションの課題に取り組む。
そこで本研究では,新しい2段階パイプラインを提案する。
最初のステージでは、3Dから2Dのマルチビュープロジェクション、ゼロショット2Dオブジェクト中心のセグメンテーションのためのグラウンドドSAMパイプライン、マルチビューラベル融合を使用する。
第2段階では、これらの最初の提案をノイズの多い擬似ラベルとして使用し、教師付き3Dパノプティカルスタイルのセグメンテーションニューラルネットワークをトレーニングする。
- 参考スコア(独自算出の注目度): 8.605087464884146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D instance segmentation for laser scanning (LiDAR) point clouds remains a challenge in many remote sensing-related domains. Successful solutions typically rely on supervised deep learning and manual annotations, and consequently focus on objects that can be well delineated through visual inspection and manual labeling of point clouds. However, for tasks with more complex and cluttered scenes, such as in-field plant phenotyping in agriculture, such approaches are often infeasible. In this study, we tackle the task of in-field wheat head instance segmentation directly from terrestrial laser scanning (TLS) point clouds. To address the problem and circumvent the need for manual annotations, we propose a novel two-stage pipeline. To obtain the initial 3D instance proposals, the first stage uses 3D-to-2D multi-view projections, the Grounded SAM pipeline for zero-shot 2D object-centric segmentation, and multi-view label fusion. The second stage uses these initial proposals as noisy pseudo-labels to train a supervised 3D panoptic-style segmentation neural network. Our results demonstrate the feasibility of the proposed approach and show performance improvementsrelative to Wheat3DGS, a recent alternative solution for in-field wheat head instance segmentation without manual 3D annotations based on multi-view RGB images and 3D Gaussian Splatting, showcasing TLS as a competitive sensing alternative. Moreover, the results show that both stages of the proposed pipeline can deliver usable 3D instance segmentation without manual annotations, indicating promising, low-effort transferability to other comparable TLS-based point cloud segmentation tasks.
- Abstract(参考訳): レーザースキャン(LiDAR)ポイントクラウドのための3Dインスタンスセグメンテーションは、多くのリモートセンシング関連ドメインにおいて依然として課題である。
成功しているソリューションは一般的に、教師付きディープラーニングと手動アノテーションに依存しているため、視覚的なインスペクションやポイントクラウドのマニュアルラベリングを通じて、適切に記述可能なオブジェクトにフォーカスする。
しかし、農業における植物の表現型化のような、より複雑で散らかった場面では、このようなアプローチは不可能であることが多い。
本研究では,地球外レーザースキャン(TLS)点雲から直接,フィールド内小麦頭部インスタンスのセグメンテーションの課題に取り組む。
そこで我々は,この問題に対処し,手動アノテーションの必要性を回避するために,新しい2段階パイプラインを提案する。
最初の3Dインスタンスの提案を得るために、第1ステージでは3Dから2Dのマルチビュープロジェクション、ゼロショット2Dオブジェクト中心のセグメンテーションのためのグラウンドドSAMパイプライン、マルチビューラベル融合を使用する。
第2段階では、これらの最初の提案をノイズの多い擬似ラベルとして使用し、教師付き3Dパノプティカルスタイルのセグメンテーションニューラルネットワークをトレーニングする。
Wheat3DGSは,多視点RGB画像と3次元ガウススプラッティングに基づく手動3Dアノテーションを使わずに,近年のフィールド内小麦頭インスタンスセグメンテーションの代替ソリューションであり,TLSを競争力のある代替手段として示している。
さらに,提案したパイプラインのいずれのステージでも,手動のアノテーションを使わずに利用可能な3Dインスタンスセグメンテーションが実現可能であることを示す。
関連論文リスト
- PatchAlign3D: Local Feature Alignment for Dense 3D Shape understanding [67.15800065888887]
現在の3次元形状の基礎モデルは、グローバルなタスク(検索、分類)において優れているが、局所的な部分レベルの推論には不十分である。
本稿では,ポイントクラウドから直接,言語対応のパッチレベル機能を生成するエンコーダのみの3Dモデルを提案する。
我々の3Dエンコーダは、テストタイムのマルチビューレンダリングなしで高速なシングルパス推論によるゼロショット3D部分分割を実現する。
論文 参考訳(メタデータ) (2026-01-05T18:55:45Z) - Through the Perspective of LiDAR: A Feature-Enriched and Uncertainty-Aware Annotation Pipeline for Terrestrial Point Cloud Segmentation [5.173182375745059]
地上レーザー走査(TLS)点雲の正確なセマンティックセマンティックセマンティクスは、高価な手動アノテーションによって制限される。
球面投影,特徴強調,アンサンブル学習,ターゲットアノテーションを統合した半自動不確実性対応パイプラインを提案する。
提案手法は,2次元球面格子を投影し,マルチソース特徴量で画素を拡大し,擬似ラベルと不確実性マップを生成するためにセグメンテーションネットワークのアンサンブルを訓練する。
論文 参考訳(メタデータ) (2025-10-08T02:25:59Z) - 3D Can Be Explored In 2D: Pseudo-Label Generation for LiDAR Point Clouds Using Sensor-Intensity-Based 2D Semantic Segmentation [3.192308005611312]
そこで我々は,3次元セマンティックセマンティックセマンティクスパイプラインを導入し,アライメントシーンと最先端2次元セマンティクス手法を利用した。
本手法は,センサ強度で色付けされたLiDARスキャンから2次元ビューを生成し,これらのビューに2次元セマンティックセマンティックセグメンテーションを適用した。
分割された2D出力は3Dポイントにバックプロジェクターされ、単純な投票ベースの推定器が使用される。
論文 参考訳(メタデータ) (2025-05-06T08:31:32Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - LWSIS: LiDAR-guided Weakly Supervised Instance Segmentation for
Autonomous Driving [34.119642131912485]
より巧妙なフレームワークであるLiDAR誘導弱監視インスタンス(LWSIS)を提示する。
LWSISは市販の3Dデータ、すなわちポイントクラウドと3Dボックスを2Dイメージインスタンスセグメンテーションモデルをトレーニングするための自然な弱い監督手段として使用している。
我々のLWSISは、訓練中のマルチモーダルデータの補完情報を利用するだけでなく、密集した2Dマスクのコストを大幅に削減します。
論文 参考訳(メタデータ) (2022-12-07T08:08:01Z) - PartSLIP: Low-Shot Part Segmentation for 3D Point Clouds via Pretrained
Image-Language Models [56.324516906160234]
一般化可能な3D部分分割は重要だが、ビジョンとロボティクスでは難しい。
本稿では,事前学習した画像言語モデルGLIPを利用して,3次元点雲の低ショット部分分割法を提案する。
我々は2Dから3Dへの豊富な知識を、ポイントクラウドレンダリングにおけるGLIPに基づく部分検出と新しい2D-to-3Dラベルリフトアルゴリズムにより転送する。
論文 参考訳(メタデータ) (2022-12-03T06:59:01Z) - Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes [36.07733308424772]
3Dセグメンテーションラベルの欠如は、効率的な点雲セグメンテーションの主な障害の1つである。
本稿では,2D のみを監督する点群における大規模セマンティックシーンセグメンテーションのための,新しいディープグラフ畳み込みネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T23:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。