論文の概要: Geometry-Based Grasping of Vine Tomatoes
- arxiv url: http://arxiv.org/abs/2103.01272v1
- Date: Mon, 1 Mar 2021 19:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 08:28:42.147421
- Title: Geometry-Based Grasping of Vine Tomatoes
- Title(参考訳): ジオメトリに基づくブドウトマトのグラッピング
- Authors: Taeke de Haan, Padmaja Kulkarni, and Robert Babuska
- Abstract要約: ブドウトマトの形状に基づく把持方法を提案する。
トマトとトラス茎の幾何学的特徴を特定するためにコンピュータビジョンのパイプラインに依存している。
把握方法は、ロボットハンドとトラスの幾何学モデルを用いて、ステム上の適切な把握位置を決定する。
- 参考スコア(独自算出の注目度): 6.547498821163685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a geometry-based grasping method for vine tomatoes. It relies on a
computer-vision pipeline to identify the required geometric features of the
tomatoes and of the truss stem. The grasping method then uses a geometric model
of the robotic hand and the truss to determine a suitable grasping location on
the stem. This approach allows for grasping tomato trusses without requiring
delicate contact sensors or complex mechanistic models and under minimal risk
of damaging the tomatoes. Lab experiments were conducted to validate the
proposed methods, using an RGB-D camera and a low-cost robotic manipulator. The
success rate was 83% to 92%, depending on the type of truss.
- Abstract(参考訳): ブドウトマトの形状に基づく把持方法を提案する。
トマトとトラス茎の幾何学的特徴を特定するためにコンピュータビジョンのパイプラインに依存している。
把握方法は、ロボットハンドとトラスの幾何学モデルを用いて、ステム上の適切な把握位置を決定する。
このアプローチにより、微妙な接触センサーや複雑な力学モデルを必要とすることなく、トマトを損傷させるリスクを最小限に抑えることができる。
RGB-Dカメラと低コストのロボットマニピュレータを用いて,提案手法を検証する実験を行った。
成功率は、トラスの種類に応じて、83%から92%でした。
関連論文リスト
- Flatten Anything: Unsupervised Neural Surface Parameterization [76.4422287292541]
本研究では,FAM(Flatten Anything Model)を導入し,グローバルな自由境界面パラメータ化を実現する。
従来の手法と比較して,FAMは接続情報を活用することなく,個別の面上で直接動作する。
当社のFAMは前処理を必要とせずに完全に自動化されており,高度に複雑なトポロジを扱うことができる。
論文 参考訳(メタデータ) (2024-05-23T14:39:52Z) - Deep learning-based approach for tomato classification in complex scenes [0.8287206589886881]
複雑な場面における深層学習に基づくトマト熟成モニタリング手法を提案する。
目的は、成熟したトマトを検出し、タイムリーに収穫することである。
実験は、さまざまな言語にまたがるトマトの状態を用いて、インターネットから収集された画像に基づいて行われる。
論文 参考訳(メタデータ) (2024-01-26T18:33:57Z) - A Vision-Guided Robotic System for Grasping Harvested Tomato Trusses in
Cluttered Environments [4.5195969272623815]
本研究では, 雑草を多く含む木枠に積み重ねたトラスを把握し, 収穫後の貯蔵, 輸送を行う方法を提案する。
この方法は、学習に基づく視覚システムからなり、まずクレート内の個々のトラスを識別し、茎上の適切な把握位置を決定する。
RGB-Dカメラを搭載したロボットマニピュレータを用いた実験では、山からすべてのトラスを拾うように指示されたとき、100%クリアランス率を示した。
論文 参考訳(メタデータ) (2023-09-29T12:07:08Z) - Tomato Maturity Recognition with Convolutional Transformers [5.220581005698766]
著者らは畳み込み変換器を用いたトマト成熟度分類の新しい手法を提案する。
KUTomaDataと呼ばれる新しいトマトデータセットは、トマトのセグメンテーションと分類のためのディープラーニングモデルをトレーニングするために設計されている。
著者らは、この畳み込みトランスフォーマーがトマト成熟度分類の最先端手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-07-04T07:33:53Z) - Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring [4.303287713669109]
本稿では,非破壊画像に基づく自動計測システムについて述べる。
Zividの3Dカメラで得られた2Dと3Dのデータを使って、トマトの3D仮想表現(デジタル双生児)を生成する。
実生トマトの総合的な試験を通じて, プラットフォームの性能を測定した。
論文 参考訳(メタデータ) (2023-04-07T12:16:10Z) - Detection of Tomato Ripening Stages using Yolov3-tiny [0.0]
トマトの分類と検出にはニューラルネットワークを用いたモデルを用いる。
実験の結果, カスタムデータセットにおける熟成段階の局在と分類において, f1スコアは90.0%であった。
論文 参考訳(メタデータ) (2023-02-01T00:57:58Z) - Construction of Object Boundaries for the Autopilotof a Surface Robot
from Satellite Imagesusing Computer Vision Methods [101.18253437732933]
衛星地図上での水物体を検出する手法を提案する。
輪郭のGPS座標を計算するアルゴリズムを作成する。
提案アルゴリズムは,表面ロボットオートパイロットモジュールに適したフォーマットで結果の保存を可能にする。
論文 参考訳(メタデータ) (2022-12-05T12:07:40Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - GDR-Net: Geometry-Guided Direct Regression Network for Monocular 6D
Object Pose Estimation [71.83992173720311]
単一のRGB画像からの6次元ポーズ推定はコンピュータビジョンの基本課題である。
GDR-Net(Geometry-Guided Direct Regression Network)を用いて6Dポーズをエンドツーエンドで学習する。
提案手法は, LM, LM-O, YCB-Vデータセットの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-02-24T09:11:31Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。