論文の概要: CF-PRNet: Coarse-to-Fine Prototype Refining Network for Point Cloud Completion and Reconstruction
- arxiv url: http://arxiv.org/abs/2409.08443v1
- Date: Fri, 13 Sep 2024 00:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 18:17:42.941782
- Title: CF-PRNet: Coarse-to-Fine Prototype Refining Network for Point Cloud Completion and Reconstruction
- Title(参考訳): CF-PRNet:ポイントクラウドコンプリートと再構成のための粗大なプロトタイプ精製ネットワーク
- Authors: Zhi Chen, Tianqi Wei, Zecheng Zhao, Jia Syuen Lim, Yadan Luo, Hu Zhang, Xin Yu, Scott Chapman, Zi Huang,
- Abstract要約: 本稿では,果実の正確な3次元形状を部分的視点から再構築する上での課題について述べる。
本稿では,粗大なプロトタイプ精錬ネットワークCF-PRNetを紹介する。
CF-PRNetは、チャンファー距離3.78、F1スコア66.76%、精度56.56%、リコール85.31%で優れたパフォーマンス指標を示す。
- 参考スコア(独自算出の注目度): 38.2432367693335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In modern agriculture, precise monitoring of plants and fruits is crucial for tasks such as high-throughput phenotyping and automated harvesting. This paper addresses the challenge of reconstructing accurate 3D shapes of fruits from partial views, which is common in agricultural settings. We introduce CF-PRNet, a coarse-to-fine prototype refining network, leverages high-resolution 3D data during the training phase but requires only a single RGB-D image for real-time inference. Our approach begins by extracting the incomplete point cloud data that constructed from a partial view of a fruit with a series of convolutional blocks. The extracted features inform the generation of scaling vectors that refine two sequentially constructed 3D mesh prototypes - one coarse and one fine-grained. This progressive refinement facilitates the detailed completion of the final point clouds, achieving detailed and accurate reconstructions. CF-PRNet demonstrates excellent performance metrics with a Chamfer Distance of 3.78, an F1 Score of 66.76%, a Precision of 56.56%, and a Recall of 85.31%, and win the first place in the Shape Completion and Reconstruction of Sweet Peppers Challenge.
- Abstract(参考訳): 現代の農業では、植物や果実の精密なモニタリングは、高スループットの表現型化や自動収穫といったタスクに不可欠である。
本稿では, 農業環境に共通する部分的視点から, 果実の正確な3次元形状を復元する上での課題について述べる。
CF-PRNetは、粗大なプロトタイプ精錬ネットワークであり、トレーニング期間中に高解像度の3Dデータを活用するが、リアルタイム推論には1枚のRGB-D画像しか必要としない。
我々のアプローチは、果実の部分的なビューから構築された不完全な点雲データを一連の畳み込みブロックで抽出することから始まる。
抽出された特徴は、連続的に構築された2つの3Dメッシュプロトタイプを洗練するスケーリングベクトルの生成を知らせる。
この進歩的な改良により、最終点雲の詳細な完成が促進され、詳細かつ正確な再構築が達成される。
CF-PRNetは、チャンファー距離3.78、F1スコア66.76%、精度56.56%、リコール85.31%で優れたパフォーマンス指標を示し、Sweet Peppers ChallengeのShape Completion and Restructionで優勝した。
関連論文リスト
- A Dataset and Benchmark for Shape Completion of Fruits for Agricultural Robotics [30.46518628656399]
本稿では,農業用視覚システムのための3次元形状補完データセットを提案する。
果実の3次元形状を推定するためのRGB-Dデータセットを提供する。
論文 参考訳(メタデータ) (2024-07-18T09:07:23Z) - Variational Relational Point Completion Network for Robust 3D
Classification [59.80993960827833]
可変点雲補完法は、局所的な詳細を欠くため、大域的な形状の骨格を生成する傾向がある。
本稿では2つの魅力的な特性を持つ変分フレームワークであるポイントコンプリートネットワーク(VRCNet)を提案する。
VRCNetは、現実世界のポイントクラウドスキャンにおいて、非常に一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-04-18T17:03:20Z) - Panoptic Mapping with Fruit Completion and Pose Estimation for
Horticultural Robots [33.21287030243106]
植物や果実を高解像度でモニタリングすることは、農業の未来において重要な役割を担っている。
正確な3D情報は、自律収穫から正確な収量推定まで、農業における多様なロボット応用への道を開くことができる。
移動ロボットによって構築された3次元多次元マップにおいて,果実の完全な3次元形状とそのポーズを共同で推定する問題に対処する。
論文 参考訳(メタデータ) (2023-03-15T20:41:24Z) - Eff-3DPSeg: 3D organ-level plant shoot segmentation using
annotation-efficient point clouds [1.5882586857953638]
本稿では,3次元植物撮影セグメンテーションのための弱教師付きフレームワーク Eff-3DPSeg を提案する。
大豆の高分解能点雲を低コストのフォトグラムシステムを用いて再構成した。
植物器官セグメンテーションのための弱教師付き深層学習法が提案された。
論文 参考訳(メタデータ) (2022-12-20T14:09:37Z) - SeedFormer: Patch Seeds based Point Cloud Completion with Upsample
Transformer [46.800630776714016]
本稿では,ポイントクラウド完了時の細部保存と回復の能力を向上させるための新しいSeedFormerを提案する。
我々は、部分的な入力から一般的な構造をキャプチャするだけでなく、局所的なパターンの地域情報も保存する新しい形状表現、すなわち、パッチシードを導入する。
提案手法は,複数のベンチマークデータセット上で,最先端のコンプリートネットワークの性能を向上する。
論文 参考訳(メタデータ) (2022-07-21T06:15:59Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - GSNet: Joint Vehicle Pose and Shape Reconstruction with Geometrical and
Scene-aware Supervision [65.13980934546957]
GSNet(Geometric and Scene-aware Network)と名付けられた新しいエンドツーエンドフレームワークを提案する。
共同で6DoFのポーズを推定し、都会のストリートビューから詳細な3Dカー形状を再構築する。
我々は,最大マルチタスクApolloCar3Dベンチマーク上でGSNetを評価し,定量的かつ定性的に最先端の性能を達成する。
論文 参考訳(メタデータ) (2020-07-26T13:05:55Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。