論文の概要: Botany-Bot: Digital Twin Monitoring of Occluded and Underleaf Plant Structures with Gaussian Splats
- arxiv url: http://arxiv.org/abs/2510.17783v1
- Date: Mon, 20 Oct 2025 17:42:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.547899
- Title: Botany-Bot: Digital Twin Monitoring of Occluded and Underleaf Plant Structures with Gaussian Splats
- Title(参考訳): Botany-Bot:ガウススプラットを用いた植物構造物のデジタルツインモニタリング
- Authors: Simeon Adebola, Chung Min Kim, Justin Kerr, Shuangyu Xie, Prithvi Akella, Jose Luis Susa Rincon, Eugen Solowjow, Ken Goldberg,
- Abstract要約: 本稿では,生物の詳細な「注釈付きデジタル双生児」を構築するシステムであるBotany-Botを紹介する。
実験の結果、ボタニーボットは90.8%の精度で葉を分割し、86.2%の精度で葉を検知し、77.9%の精度でリフト/プッシュの葉をリフト/プッシュし、77.3%の精度で詳細なオーバーサイド/アンダーサイドの画像を取ることができることが示唆された。
- 参考スコア(独自算出の注目度): 19.181195573769816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commercial plant phenotyping systems using fixed cameras cannot perceive many plant details due to leaf occlusion. In this paper, we present Botany-Bot, a system for building detailed "annotated digital twins" of living plants using two stereo cameras, a digital turntable inside a lightbox, an industrial robot arm, and 3D segmentated Gaussian Splat models. We also present robot algorithms for manipulating leaves to take high-resolution indexable images of occluded details such as stem buds and the underside/topside of leaves. Results from experiments suggest that Botany-Bot can segment leaves with 90.8% accuracy, detect leaves with 86.2% accuracy, lift/push leaves with 77.9% accuracy, and take detailed overside/underside images with 77.3% accuracy. Code, videos, and datasets are available at https://berkeleyautomation.github.io/Botany-Bot/.
- Abstract(参考訳): 固定カメラを用いた市販植物の表現体系は、葉の閉塞により多くの植物の詳細を認識できない。
本稿では,2台のステレオカメラ,ライトボックス内のデジタルターンテーブル,産業用ロボットアーム,および3Dセグメント化されたガウススプラモデルを用いて,生物の詳細な「注釈付きデジタルツイン」を構築するシステムであるBotany-Botを提案する。
また,葉を操るロボットアルゴリズムを用いて,茎芽や葉の裏面・裏面といった隠蔽された細部を高精細度でインデクサブルに表現する手法を提案する。
実験の結果、ボタニーボットは90.8%の精度で葉を分割し、86.2%の精度で葉を検知し、77.9%の精度でリフト/プッシュの葉をリフト/プッシュし、77.3%の精度で詳細なオーバーサイド/アンダーサイドの画像を取ることができることが示唆された。
コード、ビデオ、データセットはhttps://berkeleyautomation.github.io/Botany-Bot/.comで入手できる。
関連論文リスト
- Omni-Scan: Creating Visually-Accurate Digital Twin Object Models Using a Bimanual Robot with Handover and Gaussian Splat Merging [17.607640140471936]
デジタルツイン」はシミュレーション、バーチャルリアリティ、マーケティング、ロボットポリシーの微調整、部分検査に有用である。
オムニ・スキャン(Omni-Scan)は、物体を1つのグリップでつかみ、静止カメラで物体を回転させるバイマニュアルロボットを用いて、高品質な3Dガウススプラモデルを生成するパイプラインである。
ロボットグリップが保持する物体を識別・分離するために,DepthAny-thing, Segment Anything, RAFT光フローモデルを用いたOmni-Scanロボットパイプラインを提案する。
論文 参考訳(メタデータ) (2025-08-01T06:36:19Z) - VidBot: Learning Generalizable 3D Actions from In-the-Wild 2D Human Videos for Zero-Shot Robotic Manipulation [53.63540587160549]
VidBotは、WildのモノクルなRGBのみの人間ビデオから学習した3Dアベイランスを使って、ゼロショットロボット操作を可能にするフレームワークである。
VidBotは、人間の日常的なビデオを利用してロボットの学習をよりスケーラブルにする。
論文 参考訳(メタデータ) (2025-03-10T10:04:58Z) - RoMu4o: A Robotic Manipulation Unit For Orchard Operations Automating Proximal Hyperspectral Leaf Sensing [2.1038216828914145]
葉レベルハイパースペクトル分光法は、表現型化、作物の健康のモニタリング、植物中の必須栄養素の同定、病気や水ストレスの検出に強力なツールであることが示されている。
この研究は、果樹園操作のためのロボット操作ユニットであるRoMu4oを紹介した。
論文 参考訳(メタデータ) (2025-01-18T01:04:02Z) - A Novel Feature Extraction Model for the Detection of Plant Disease from Leaf Images in Low Computational Devices [2.1990652930491854]
提案手法は,葉のイメージから頑健で識別可能な特徴を抽出するために,様々なタイプのディープラーニング技術を統合する。
このデータセットには、10種類のトマト病と1種類の健康な葉から1万枚の葉の写真が含まれています。
AlexNetの精度スコアは87%で、高速で軽量であり、組み込みシステムでの使用に適している。
論文 参考訳(メタデータ) (2024-10-01T19:32:45Z) - Robot See Robot Do: Imitating Articulated Object Manipulation with Monocular 4D Reconstruction [51.49400490437258]
本研究は,1つの単分子RGB人間の実演から音声による物体操作を模倣する手法を開発した。
まず,モノクロ映像から3次元部分運動を復元する4次元微分可能部品モデル(4D-DPM)を提案する。
この4D再構成を前提として、ロボットは物体の軌道を再現し、両腕の動きを計画し、実証された物体部分の動きを誘導する。
両用するYuMiロボットを用いて,4D-DPMの3D追跡精度を実写3D部分軌跡に基づいて評価し,9つのオブジェクトに対してRSRDの物理的実行性能を評価した。
論文 参考訳(メタデータ) (2024-09-26T17:57:16Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - PlantDet: A benchmark for Plant Detection in the Three-Rivers-Source
Region [4.676030127116814]
三波源領域(PTRS)における植物検出のためのデータセットを構築する。
21種類の高解像度画像を2160*3840ピクセルで6965枚、様々なセンサーやプラットフォームで撮影し、形状や大きさの異なる物体を特徴とする。
PTRSは、密接な隠蔽、葉の分解能の変化、植物間の特徴的類似性などの課題を提示する。
論文 参考訳(メタデータ) (2023-04-11T04:18:56Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Populations of Spiking Neurons for Reservoir Computing: Closed Loop
Control of a Compliant Quadruped [64.64924554743982]
本稿では,ニューラルネットワークを用いた中央パターン生成機構を実装し,閉ループロボット制御を実現するためのフレームワークを提案する。
本研究では,従順な四足歩行ロボットのシミュレーションモデル上で,予め定義された歩行パターン,速度制御,歩行遷移の学習を実演する。
論文 参考訳(メタデータ) (2020-04-09T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。