論文の概要: PointRAFT: 3D deep learning for high-throughput prediction of potato tuber weight from partial point clouds
- arxiv url: http://arxiv.org/abs/2512.24193v1
- Date: Tue, 30 Dec 2025 12:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.381164
- Title: PointRAFT: 3D deep learning for high-throughput prediction of potato tuber weight from partial point clouds
- Title(参考訳): ポイントRAFT:部分点雲からのジャガイモ塊茎重量の高精度予測のための3次元深層学習
- Authors: Pieter M. Blok, Haozhou Wang, Hyun Kwon Suh, Peicheng Wang, James Burridge, Wei Guo,
- Abstract要約: ポタト収穫は農業における栽培慣行を最適化する鍵となる指標である。
RGB-Dカメラはコンベアベルトに沿って移動する個々のチューバの3D情報をキャプチャする。
しかし、RGB-D画像から再構成された点雲は自己閉塞のため不完全である。
部分点雲から管状重量などの連続的な3次元形状特性を直接予測する点雲回帰ネットワークであるPointRAFTを導入する。
- 参考スコア(独自算出の注目度): 5.710212170678211
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Potato yield is a key indicator for optimizing cultivation practices in agriculture. Potato yield can be estimated on harvesters using RGB-D cameras, which capture three-dimensional (3D) information of individual tubers moving along the conveyor belt. However, point clouds reconstructed from RGB-D images are incomplete due to self-occlusion, leading to systematic underestimation of tuber weight. To address this, we introduce PointRAFT, a high-throughput point cloud regression network that directly predicts continuous 3D shape properties, such as tuber weight, from partial point clouds. Rather than reconstructing full 3D geometry, PointRAFT infers target values directly from raw 3D data. Its key architectural novelty is an object height embedding that incorporates tuber height as an additional geometric cue, improving weight prediction under practical harvesting conditions. PointRAFT was trained and evaluated on 26,688 partial point clouds collected from 859 potato tubers across four cultivars and three growing seasons on an operational harvester in Japan. On a test set of 5,254 point clouds from 172 tubers, PointRAFT achieved a mean absolute error of 12.0 g and a root mean squared error of 17.2 g, substantially outperforming a linear regression baseline and a standard PointNet++ regression network. With an average inference time of 6.3 ms per point cloud, PointRAFT supports processing rates of up to 150 tubers per second, meeting the high-throughput requirements of commercial potato harvesters. Beyond potato weight estimation, PointRAFT provides a versatile regression network applicable to a wide range of 3D phenotyping and robotic perception tasks. The code, network weights, and a subset of the dataset are publicly available at https://github.com/pieterblok/pointraft.git.
- Abstract(参考訳): ポタト収穫は農業における栽培慣行を最適化する鍵となる指標である。
コンベアベルトに沿って移動する個々のチューバの3次元(3次元)情報をキャプチャするRGB-Dカメラを用いて,収穫機上でのポタト収量を推定することができる。
しかし、RGB-D画像から再構成された点雲は自己閉塞のため不完全であり、チューブの重量の体系的な過小評価に繋がる。
そこで我々は,高スループットの点雲回帰ネットワークであるPointRAFTを導入し,部分点雲から管路重みなどの連続的な3次元形状特性を直接予測する。
完全な3D幾何学を再構築する代わりに、PointRAFTは生の3Dデータから直接ターゲット値を推測する。
その重要なアーキテクチャ上の特徴は、チューブの高さを付加的な幾何学的キューとして組み込んだ物体の高さの埋め込みであり、実際の収穫条件下での重量予測を改善している。
859品種のジャガイモ塊茎から採取した26,688個の部分点雲について,4品種および3品種の生育時期を日本の収穫機で測定し,評価した。
172のチューバから5,254点の雲の試験セットにおいて、PointRAFTは平均絶対誤差12.0 gとルート平均2乗誤差17.2 gを達成し、線形回帰ベースラインと標準のPointNet++回帰ネットワークを大幅に上回った。
ポイントRAFTは1点当たり平均6.3msで、1秒あたり150チューバまでの処理速度をサポートし、商業用ジャガイモ収穫機の高スループット要求を満たす。
ポテト重量推定以外にも、PointRAFTは幅広い3D表現型およびロボット知覚タスクに適用可能な多目的回帰ネットワークを提供する。
コード、ネットワークウェイト、データセットのサブセットはhttps://github.com/pieterblok/pointraft.git.comで公開されている。
関連論文リスト
- Revisiting Depth Representations for Feed-Forward 3D Gaussian Splatting [57.43483622778394]
本稿では,事前学習した変圧器によって予測される点マップに基づく新しい正規化損失PM-Lossを紹介する。
改良された深度マップにより,様々なアーキテクチャやシーンのフィードフォワード3DGSを大幅に改善する。
論文 参考訳(メタデータ) (2025-06-05T17:58:23Z) - 3D Point Cloud Network Pruning: When Some Weights Do not Matter [7.916284402013821]
点雲は、多くのアプリケーションで利用される重要な幾何学的データ構造である。
3Dポイントクラウドを処理するために、ポイントクラウドニューラルネットワーク(PC-NN)と呼ばれるディープニューラルネットワーク。
我々の研究は、標準のPCNNプルーニング技術を洗練できる有望な現象を明らかにした。
論文 参考訳(メタデータ) (2024-08-26T19:44:18Z) - High-throughput 3D shape completion of potato tubers on a harvester [24.52522554337409]
CoRe++は、RGB-D画像から3D形状を完成させることのできる3D形状補完ネットワークである。
CoRe++は高速かつ正確で、オペレーショナルトリガーに実装できる。
論文 参考訳(メタデータ) (2024-07-31T05:15:24Z) - PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - GQE-Net: A Graph-based Quality Enhancement Network for Point Cloud Color
Attribute [51.4803148196217]
本稿では,点雲の色歪みを低減するため,グラフベースの品質向上ネットワーク(GQE-Net)を提案する。
GQE-Netは、幾何学情報を補助入力とグラフ畳み込みブロックとして使用し、局所的な特徴を効率的に抽出する。
実験結果から,本手法は最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2023-03-24T02:33:45Z) - Vegetation Stratum Occupancy Prediction from Airborne LiDAR 3D Point
Clouds [5.7047887413125276]
本研究では,空中プラットフォームから取得した3次元点雲から植生成層域の占有度を推定する新しい深層学習手法を提案する。
我々のネットワークは、ピクセルワイドやポイントワイドアノテーションよりも簡単に生成できる円筒状のプロットに集約された値で重畳されている。
本手法は,視覚的および解釈可能な予測を同時に提供しながら,手工芸と深層学習のベースラインを精度で上回る。
論文 参考訳(メタデータ) (2021-12-27T09:33:08Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。