論文の概要: T-REX: Vision-Based System for Autonomous Leaf Detection and Grasp Estimation
- arxiv url: http://arxiv.org/abs/2505.01654v1
- Date: Sat, 03 May 2025 02:17:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.218478
- Title: T-REX: Vision-Based System for Autonomous Leaf Detection and Grasp Estimation
- Title(参考訳): T-REX:自律的リーフ検出とグラフ推定のための視覚ベースシステム
- Authors: Srecharan Selvam, Abhisesh Silwal, George Kantor,
- Abstract要約: T-Rexは、温室環境における葉の自律的局在化、選択、把握のために開発されたガントリーベースのロボットシステムである。
このシステムは6自由度マニピュレータとステレオビジョンパイプラインを統合して、ターゲットの葉を識別し、相互作用する。
- 参考スコア(独自算出の注目度): 5.059120569845977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: T-Rex (The Robot for Extracting Leaf Samples) is a gantry-based robotic system developed for autonomous leaf localization, selection, and grasping in greenhouse environments. The system integrates a 6-degree-of-freedom manipulator with a stereo vision pipeline to identify and interact with target leaves. YOLOv8 is used for real-time leaf segmentation, and RAFT-Stereo provides dense depth maps, allowing the reconstruction of 3D leaf masks. These observations are processed through a leaf grasping algorithm that selects the optimal leaf based on clutter, visibility, and distance, and determines a grasp point by analyzing local surface flatness, top-down approachability, and margin from edges. The selected grasp point guides a trajectory executed by ROS-based motion controllers, driving a custom microneedle-equipped end-effector to clamp the leaf and simulate tissue sampling. Experiments conducted with artificial plants under varied poses demonstrate that the T-Rex system can consistently detect, plan, and perform physical interactions with plant-like targets, achieving a grasp success rate of 66.6\%. This paper presents the system architecture, implementation, and testing of T-Rex as a step toward plant sampling automation in Controlled Environment Agriculture (CEA).
- Abstract(参考訳): T-Rex (The Robot for Extracting Leaf Samples) は、温室環境における葉の自律的局在化、選択、把握のために開発されたガントリーベースのロボットシステムである。
このシステムは6自由度マニピュレータとステレオビジョンパイプラインを統合して、ターゲットの葉を識別し、相互作用する。
YOLOv8はリアルタイムリーフセグメンテーションに使われ、RAFT-Stereoは深度マップを提供し、3Dリーフマスクの再構築を可能にする。
これらの観察は, 雑草, 可視性, 距離に基づいて最適な葉を選別し, 局所表面の平坦度, トップダウンの接近性, 辺縁の縁辺を解析し, 把握点を決定する葉把握アルゴリズムによって処理される。
選択されたグリップポイントは、ROSベースのモーションコントローラによって実行される軌跡をガイドし、カスタムのマイクロニードル付きエンドエフェクターを駆動して葉をクランプし、組織サンプリングをシミュレートする。
さまざまなポーズで人工植物を用いて行った実験では、T-Rexシステムは、植物のような標的との物理的相互作用を一貫して検出し、計画し、実行し、66.6\%の達成率を達成することが示されている。
本稿では, 制御環境農業(CEA)における植物採取自動化に向けたステップとして, T-Rexのシステムアーキテクチャ, 実装, テストについて述べる。
関連論文リスト
- RoMu4o: A Robotic Manipulation Unit For Orchard Operations Automating Proximal Hyperspectral Leaf Sensing [2.1038216828914145]
葉レベルハイパースペクトル分光法は、表現型化、作物の健康のモニタリング、植物中の必須栄養素の同定、病気や水ストレスの検出に強力なツールであることが示されている。
この研究は、果樹園操作のためのロボット操作ユニットであるRoMu4oを紹介した。
論文 参考訳(メタデータ) (2025-01-18T01:04:02Z) - Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring [4.303287713669109]
本稿では,非破壊画像に基づく自動計測システムについて述べる。
Zividの3Dカメラで得られた2Dと3Dのデータを使って、トマトの3D仮想表現(デジタル双生児)を生成する。
実生トマトの総合的な試験を通じて, プラットフォームの性能を測定した。
論文 参考訳(メタデータ) (2023-04-07T12:16:10Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - Statistical shape representations for temporal registration of plant
components in 3D [5.349852254138086]
形状特徴を用いることで側頭器官のマッチングが向上することを示す。
これは、ライフサイクル全体のフェノタイピングを可能にするロボット作物監視に不可欠である。
論文 参考訳(メタデータ) (2022-09-23T11:11:10Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - An Effective Leaf Recognition Using Convolutional Neural Networks Based
Features [1.137457877869062]
本稿では,葉の認識に有効な手法を提案する。
葉はいくつかの前処理を経て、精製された色画像、静脈像、xy投影ヒストグラム、手作りの形状、テクスチャの特徴、フーリエディスクリプタを抽出する。
これらの属性は、サポートベクターマシン(SVM)モデルを使用して異なる葉を分類する前に、ニューラルネットワークベースのエンコーダによってより良い表現に変換される。
論文 参考訳(メタデータ) (2021-08-04T02:02:22Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。