論文の概要: Efficient Search and Detection of Relevant Plant Parts using
Semantics-Aware Active Vision
- arxiv url: http://arxiv.org/abs/2306.09801v1
- Date: Fri, 16 Jun 2023 12:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 14:00:38.586179
- Title: Efficient Search and Detection of Relevant Plant Parts using
Semantics-Aware Active Vision
- Title(参考訳): semantics-aware active vision を用いた植物関連部品の効率的な探索と検出
- Authors: Akshay K. Burusa, Joost Scholten, David Rapado Rincon, Xin Wang,
Eldert J. van Henten, Gert Kootstra
- Abstract要約: トマトの収穫・除葉を自動化するためには、関係する植物部位を探索・検出することが重要である。
現在のアクティブビジョンアルゴリズムは、関連する部分と無関係な植物部位を区別できない。
本稿では,意味情報を用いて植物部位を識別するセマンティックアクティブビジョン戦略を提案する。
- 参考スコア(独自算出の注目度): 4.715649923429341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To automate harvesting and de-leafing of tomato plants using robots, it is
important to search and detect the relevant plant parts, namely tomatoes,
peduncles, and petioles. This is challenging due to high levels of occlusion in
tomato greenhouses. Active vision is a promising approach which helps robots to
deliberately plan camera viewpoints to overcome occlusion and improve
perception accuracy. However, current active-vision algorithms cannot
differentiate between relevant and irrelevant plant parts, making them
inefficient for targeted perception of specific plant parts. We propose a
semantic active-vision strategy that uses semantic information to identify the
relevant plant parts and prioritises them during view planning using an
attention mechanism. We evaluated our strategy using 3D models of tomato plants
with varying structural complexity, which closely represented occlusions in the
real world. We used a simulated environment to gain insights into our strategy,
while ensuring repeatability and statistical significance. At the end of ten
viewpoints, our strategy was able to correctly detect 85.5% of the plant parts,
about 4 parts more on average per plant compared to a volumetric active-vision
strategy. Also, it detected 5 and 9 parts more compared to two predefined
strategies and 11 parts more compared to a random strategy. It also performed
reliably with a median of 88.9% correctly-detected objects per plant in 96
experiments. Our strategy was also robust to uncertainty in plant and
plant-part position, plant complexity, and different viewpoint sampling
strategies. We believe that our work could significantly improve the speed and
robustness of automated harvesting and de-leafing in tomato crop production.
- Abstract(参考訳): ロボットを用いたトマトの収穫・脱リーフィングの自動化には,トマト,ペデュンクル,ペピオレスといった関連植物部位の探索と検出が重要である。
トマト温室の閉塞度が高いため、これは困難である。
アクティブビジョンは、ロボットが故意にカメラの視点を計画し、閉塞を克服し、知覚精度を向上させるための有望なアプローチである。
しかし、現在の能動画像アルゴリズムでは、関連する植物部品と無関係な植物部品を区別できないため、特定の植物部品をターゲットとする認識には非効率である。
本稿では,意味情報を用いて植物を識別し,アテンションメカニズムを用いたビュープランニング中に優先順位付けを行うセマンティックアクティブビジョン戦略を提案する。
実世界のオクルージョンをよく表す構造的複雑さの異なるトマトの3次元モデルを用いて,我々の戦略を評価した。
再現性と統計的意義を保証しながら、シミュレートされた環境を使って戦略の洞察を得ました。
10視点の最後には, プラントの85.5%を正確に検出し, 体積アクティブビジョンの戦略と比較して, プラント当たり平均で約4つの部品を検出できた。
また、事前定義された2つの戦略と、ランダムな戦略よりも11つの戦略より5と9が検出された。
また、96の実験で88.9%の精度で検出された被写体で確実に行われた。
また, 植物および植物部分の位置の不確実性, 植物の複雑性, 視点の異なるサンプリング戦略についても, 本戦略は堅牢であった。
我々は,トマト生産における自動収穫・脱葉の速度と堅牢性を大幅に向上させることができると考えている。
関連論文リスト
- AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - Improving Data Efficiency for Plant Cover Prediction with Label
Interpolation and Monte-Carlo Cropping [7.993547048820065]
植物群落の組成は環境変化の重要な指標であり、通常生態学的研究で分析される。
本稿では,収集した植生計画時系列のスパースラベルを中間密度・未ラベル画像に補間する手法を提案する。
また,高解像度画像の処理を効率的に行うため,モンテカルロ・クロッピングと呼ばれる新しい手法を導入する。
論文 参考訳(メタデータ) (2023-07-17T15:17:39Z) - Push Past Green: Learning to Look Behind Plant Foliage by Moving It [19.36396157137122]
部分的な可視性、極端に粗い構造、植物のための未知の幾何学と力学は、そのような操作を困難にしている。
SRPNetは、特定の植物に対する候補アクションの実行時に、どの空間が露呈しているかを予測するニューラルネットワークである。
SRPNetは、どれだけの空間が露光されるかだけでなく、どこで露光されるかも予測するだけでなく、植物の葉の下のより多くの空間を徐々に明らかにする一連の行動を実行することができる。
論文 参考訳(メタデータ) (2023-07-06T17:55:28Z) - PlantDet: A benchmark for Plant Detection in the Three-Rivers-Source
Region [4.676030127116814]
三波源領域(PTRS)における植物検出のためのデータセットを構築する。
21種類の高解像度画像を2160*3840ピクセルで6965枚、様々なセンサーやプラットフォームで撮影し、形状や大きさの異なる物体を特徴とする。
PTRSは、密接な隠蔽、葉の分解能の変化、植物間の特徴的類似性などの課題を提示する。
論文 参考訳(メタデータ) (2023-04-11T04:18:56Z) - Development and evaluation of automated localisation and reconstruction
of all fruits on tomato plants in a greenhouse based on multi-view perception
and 3D multi-object tracking [0.0]
本稿では,閉鎖されたアグロフード環境におけるジェネリック表現構築のための新しいアプローチを提案する。
これは検出対象ごとに部分点雲を生成する検出アルゴリズムに基づいており、次いで3次元多目的追跡アルゴリズムが続く。
表象の精度を実環境において評価し,トマトにおけるトマトの表現と局在を成功させた。
論文 参考訳(メタデータ) (2022-11-04T21:51:53Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Attention-driven Next-best-view Planning for Efficient Reconstruction of Plants and Targeted Plant Parts [0.0]
我々は、注意駆動型NBV計画戦略を用いて、目標知覚を改善する上での注意の役割について検討する。
本研究では,作業関連部品に注意を集中させることで,3次元再構築のスピードと精度を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-06-21T11:46:57Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。