論文の概要: Semantics-Aware Next-best-view Planning for Efficient Search and Detection of Task-relevant Plant Parts
- arxiv url: http://arxiv.org/abs/2306.09801v2
- Date: Thu, 9 May 2024 20:52:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 20:46:40.819788
- Title: Semantics-Aware Next-best-view Planning for Efficient Search and Detection of Task-relevant Plant Parts
- Title(参考訳): タスク関連プラント部品の効率的な探索・検出のためのセマンティックスを考慮した次ベクタビュープランニング
- Authors: Akshay K. Burusa, Joost Scholten, David Rapado Rincon, Xin Wang, Eldert J. van Henten, Gert Kootstra,
- Abstract要約: トマトの収穫・脱葉を自動化するためには,作業関連部位の探索・検出が重要である。
現在のアクティブビジョンアルゴリズムは、関連する部分と無関係な植物部位を区別できない。
本稿では,意味情報を用いて関連する植物部位を識別するセマンティックス・アウェア・アクティブビジョン戦略を提案する。
- 参考スコア(独自算出の注目度): 3.9074818653555554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To automate harvesting and de-leafing of tomato plants using robots, it is important to search and detect the task-relevant plant parts. This is challenging due to high levels of occlusion in tomato plants. Active vision is a promising approach to viewpoint planning, which helps robots to deliberately plan camera viewpoints to overcome occlusion and improve perception accuracy. However, current active-vision algorithms cannot differentiate between relevant and irrelevant plant parts and spend time on perceiving irrelevant plant parts, making them inefficient for targeted perception. We propose a semantics-aware active-vision strategy that uses semantic information to identify the relevant plant parts and prioritise them during view planning. We evaluated our strategy on the task of searching and detecting the relevant plant parts using simulation and real-world experiments. In simulation, using 3D models of tomato plants with varying structural complexity, our semantics-aware strategy could search and detect 81.8% of all the relevant plant parts using nine viewpoints. It was significantly faster and detected more plant parts than predefined, random, and volumetric active-vision strategies. Our strategy was also robust to uncertainty in plant and plant-part position, plant complexity, and different viewpoint-sampling strategies. Further, in real-world experiments, our strategy could search and detect 82.7% of all the relevant plant parts using seven viewpoints, under real-world conditions with natural variation and occlusion, natural illumination, sensor noise, and uncertainty in camera poses. Our results clearly indicate the advantage of using semantics-aware active vision for targeted perception of plant parts and its applicability in real-world setups. We believe that it can significantly improve the speed and robustness of automated harvesting and de-leafing in tomato crop production.
- Abstract(参考訳): トマトの収穫・脱葉をロボットで自動化するためには,作業関連部品の探索・検出が重要である。
トマトの排卵量が高いため、これは困難である。
アクティブビジョンは視点計画への有望なアプローチであり、カメラ視点を意図的に計画し、閉塞を克服し、知覚精度を向上させる。
しかし、現在のアクティブビジョンアルゴリズムでは、関係のある部分と無関係な部分の区別ができず、無関係な部分の知覚に時間を費やすことはできず、ターゲットの知覚に非効率である。
本稿では、意味情報を用いて、植物を識別し、ビュープランニング中に優先順位付けする意味論的アクティブビジョン戦略を提案する。
本研究は,シミュレーションと実環境実験を用いて,関係する植物部位の探索・検出を行う上での戦略を検証した。
トマトの3次元モデルと構造的複雑さの異なるモデルを用いて、我々のセマンティックス・アウェア・ストラテジーは、9つの視点を用いて、関連するすべての植物部位の81.8%を探索し、検出することができる。
これは、事前に定義された、ランダムで、容積的なアクティブビジョン戦略よりもはるかに高速で、より多くの植物部位が検出された。
我々の戦略は、植物および植物部分の位置の不確実性、植物の複雑さ、および異なる視点サンプリング戦略にも頑健であった。
さらに、実世界の実験では、7つの視点で、自然変化と閉塞、自然照明、センサーノイズ、カメラポーズの不確実性のある実世界の条件下で、関連するすべての植物部分の82.7%を探索し、検出することができる。
本研究は,植物部位の標的認識における意味認識型能動視覚の利点と実環境における適用性を示すものである。
トマト生産における自動収穫・脱葉の速度と堅牢性を大幅に向上させることができると考えている。
関連論文リスト
- AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Improving Data Efficiency for Plant Cover Prediction with Label
Interpolation and Monte-Carlo Cropping [7.993547048820065]
植物群落の組成は環境変化の重要な指標であり、通常生態学的研究で分析される。
本稿では,収集した植生計画時系列のスパースラベルを中間密度・未ラベル画像に補間する手法を提案する。
また,高解像度画像の処理を効率的に行うため,モンテカルロ・クロッピングと呼ばれる新しい手法を導入する。
論文 参考訳(メタデータ) (2023-07-17T15:17:39Z) - Push Past Green: Learning to Look Behind Plant Foliage by Moving It [19.36396157137122]
部分的な可視性、極端に粗い構造、植物のための未知の幾何学と力学は、そのような操作を困難にしている。
SRPNetは、特定の植物に対する候補アクションの実行時に、どの空間が露呈しているかを予測するニューラルネットワークである。
SRPNetは、どれだけの空間が露光されるかだけでなく、どこで露光されるかも予測するだけでなく、植物の葉の下のより多くの空間を徐々に明らかにする一連の行動を実行することができる。
論文 参考訳(メタデータ) (2023-07-06T17:55:28Z) - PlantDet: A benchmark for Plant Detection in the Three-Rivers-Source
Region [4.676030127116814]
三波源領域(PTRS)における植物検出のためのデータセットを構築する。
21種類の高解像度画像を2160*3840ピクセルで6965枚、様々なセンサーやプラットフォームで撮影し、形状や大きさの異なる物体を特徴とする。
PTRSは、密接な隠蔽、葉の分解能の変化、植物間の特徴的類似性などの課題を提示する。
論文 参考訳(メタデータ) (2023-04-11T04:18:56Z) - Development and evaluation of automated localisation and reconstruction
of all fruits on tomato plants in a greenhouse based on multi-view perception
and 3D multi-object tracking [0.0]
本稿では,閉鎖されたアグロフード環境におけるジェネリック表現構築のための新しいアプローチを提案する。
これは検出対象ごとに部分点雲を生成する検出アルゴリズムに基づいており、次いで3次元多目的追跡アルゴリズムが続く。
表象の精度を実環境において評価し,トマトにおけるトマトの表現と局在を成功させた。
論文 参考訳(メタデータ) (2022-11-04T21:51:53Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Attention-driven Next-best-view Planning for Efficient Reconstruction of Plants and Targeted Plant Parts [0.0]
我々は、注意駆動型NBV計画戦略を用いて、目標知覚を改善する上での注意の役割について検討する。
本研究では,作業関連部品に注意を集中させることで,3次元再構築のスピードと精度を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-06-21T11:46:57Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。