論文の概要: Semantics-Aware Next-best-view Planning for Efficient Search and Detection of Task-relevant Plant Parts
- arxiv url: http://arxiv.org/abs/2306.09801v3
- Date: Wed, 18 Dec 2024 09:34:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:23:19.699157
- Title: Semantics-Aware Next-best-view Planning for Efficient Search and Detection of Task-relevant Plant Parts
- Title(参考訳): タスク関連プラント部品の効率的な探索・検出のためのセマンティックスを考慮した次ベクタビュープランニング
- Authors: Akshay K. Burusa, Joost Scholten, David Rapado Rincon, Xin Wang, Eldert J. van Henten, Gert Kootstra,
- Abstract要約: トマトの収穫・脱葉を自動化するためには, 作業関連部位の探索と検出が重要である。
現在のアクティブビジョンアルゴリズムは、関連する部分と無関係な植物部位を区別できない。
本研究は,意味情報を用いて植物部位を識別するセマンティックス対応アクティブビジョン戦略を提案する。
- 参考スコア(独自算出の注目度): 3.9074818653555554
- License:
- Abstract: Searching and detecting the task-relevant parts of plants is important to automate harvesting and de-leafing of tomato plants using robots. This is challenging due to high levels of occlusion in tomato plants. Active vision is a promising approach in which the robot strategically plans its camera viewpoints to overcome occlusion and improve perception accuracy. However, current active-vision algorithms cannot differentiate between relevant and irrelevant plant parts and spend time on perceiving irrelevant plant parts. This work proposed a semantics-aware active-vision strategy that uses semantic information to identify the relevant plant parts and prioritise them during view planning. The proposed strategy was evaluated on the task of searching and detecting the relevant plant parts using simulation and real-world experiments. In simulation experiments, the semantics-aware strategy proposed could search and detect 81.8% of the relevant plant parts using nine viewpoints. It was significantly faster and detected more plant parts than predefined, random, and volumetric active-vision strategies that do not use semantic information. The strategy proposed was also robust to uncertainty in plant and plant-part positions, plant complexity, and different viewpoint-sampling strategies. In real-world experiments, the semantics-aware strategy could search and detect 82.7% of the relevant plant parts using seven viewpoints, under complex greenhouse conditions with natural variation and occlusion, natural illumination, sensor noise, and uncertainty in camera poses. The results of this work clearly indicate the advantage of using semantics-aware active vision for targeted perception of plant parts and its applicability in the real world. It can significantly improve the efficiency of automated harvesting and de-leafing in tomato crop production.
- Abstract(参考訳): 植物の課題関連部位の探索と検出は, トマトの収穫・脱葉をロボットを用いて自動化する上で重要である。
トマトの排卵量が高いため、これは困難である。
アクティブビジョンは、ロボットがカメラの視点を戦略的に計画し、隠蔽を克服し、知覚精度を向上させるという有望なアプローチである。
しかし、現在のアクティブビジョンアルゴリズムでは、関係のある部分と無関係な部分の区別ができず、無関係な部分の知覚に時間を費やすことはできない。
本研究は、意味情報を用いて、植物を識別し、ビュープランニング中に優先する意味論的アクティブビジョン戦略を提案する。
提案手法は,シミュレーションと実環境実験を用いて,関連する植物部位を探索・検出する作業に基づいて評価された。
シミュレーション実験において、提案されたセマンティックス・アウェア戦略は、9つの視点を用いて、関連する植物部位の81.8%を探索し、検出することができる。
セマンティック情報を使用しない、事前定義された、ランダムで、ボリュームのアクティブビジョン戦略よりもはるかに高速で、より多くの植物を検出できた。
提案された戦略は、植物および植物部分の位置の不確実性、植物の複雑さ、および異なる視点サンプリング戦略に対しても堅牢であった。
実世界の実験では、セマンティックス・アウェアの戦略は、7つの視点で、自然の変動と閉塞、自然の照明、センサーノイズ、不確実性といった複雑な温室条件下で、関連する植物の82.7%を探索し、検出することができる。
本研究の結果は,植物部位の標的認識における意味認識型能動視覚の利点と実世界への適用性を示すものである。
トマトの生産において、自動収穫と脱葉の効率を大幅に向上させることができる。
関連論文リスト
- AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Improving Data Efficiency for Plant Cover Prediction with Label
Interpolation and Monte-Carlo Cropping [7.993547048820065]
植物群落の組成は環境変化の重要な指標であり、通常生態学的研究で分析される。
本稿では,収集した植生計画時系列のスパースラベルを中間密度・未ラベル画像に補間する手法を提案する。
また,高解像度画像の処理を効率的に行うため,モンテカルロ・クロッピングと呼ばれる新しい手法を導入する。
論文 参考訳(メタデータ) (2023-07-17T15:17:39Z) - Push Past Green: Learning to Look Behind Plant Foliage by Moving It [19.36396157137122]
部分的な可視性、極端に粗い構造、植物のための未知の幾何学と力学は、そのような操作を困難にしている。
SRPNetは、特定の植物に対する候補アクションの実行時に、どの空間が露呈しているかを予測するニューラルネットワークである。
SRPNetは、どれだけの空間が露光されるかだけでなく、どこで露光されるかも予測するだけでなく、植物の葉の下のより多くの空間を徐々に明らかにする一連の行動を実行することができる。
論文 参考訳(メタデータ) (2023-07-06T17:55:28Z) - PlantDet: A benchmark for Plant Detection in the Three-Rivers-Source
Region [4.676030127116814]
三波源領域(PTRS)における植物検出のためのデータセットを構築する。
21種類の高解像度画像を2160*3840ピクセルで6965枚、様々なセンサーやプラットフォームで撮影し、形状や大きさの異なる物体を特徴とする。
PTRSは、密接な隠蔽、葉の分解能の変化、植物間の特徴的類似性などの課題を提示する。
論文 参考訳(メタデータ) (2023-04-11T04:18:56Z) - Development and evaluation of automated localisation and reconstruction
of all fruits on tomato plants in a greenhouse based on multi-view perception
and 3D multi-object tracking [0.0]
本稿では,閉鎖されたアグロフード環境におけるジェネリック表現構築のための新しいアプローチを提案する。
これは検出対象ごとに部分点雲を生成する検出アルゴリズムに基づいており、次いで3次元多目的追跡アルゴリズムが続く。
表象の精度を実環境において評価し,トマトにおけるトマトの表現と局在を成功させた。
論文 参考訳(メタデータ) (2022-11-04T21:51:53Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Attention-driven Next-best-view Planning for Efficient Reconstruction of Plants and Targeted Plant Parts [0.0]
我々は、注意駆動型NBV計画戦略を用いて、目標知覚を改善する上での注意の役割について検討する。
本研究では,作業関連部品に注意を集中させることで,3次元再構築のスピードと精度を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-06-21T11:46:57Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。