論文の概要: Push Past Green: Learning to Look Behind Plant Foliage by Moving It
- arxiv url: http://arxiv.org/abs/2307.03175v2
- Date: Wed, 5 Jun 2024 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 04:26:20.276198
- Title: Push Past Green: Learning to Look Behind Plant Foliage by Moving It
- Title(参考訳): グリーンを追い越す: 植物が葉の裏に見えることを学ぶ
- Authors: Xiaoyu Zhang, Saurabh Gupta,
- Abstract要約: 部分的な可視性、極端に粗い構造、植物のための未知の幾何学と力学は、そのような操作を困難にしている。
SRPNetは、特定の植物に対する候補アクションの実行時に、どの空間が露呈しているかを予測するニューラルネットワークである。
SRPNetは、どれだけの空間が露光されるかだけでなく、どこで露光されるかも予測するだけでなく、植物の葉の下のより多くの空間を徐々に明らかにする一連の行動を実行することができる。
- 参考スコア(独自算出の注目度): 19.36396157137122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous agriculture applications (e.g., inspection, phenotyping, plucking fruits) require manipulating the plant foliage to look behind the leaves and the branches. Partial visibility, extreme clutter, thin structures, and unknown geometry and dynamics for plants make such manipulation challenging. We tackle these challenges through data-driven methods. We use self-supervision to train SRPNet, a neural network that predicts what space is revealed on execution of a candidate action on a given plant. We use SRPNet with the cross-entropy method to predict actions that are effective at revealing space beneath plant foliage. Furthermore, as SRPNet does not just predict how much space is revealed but also where it is revealed, we can execute a sequence of actions that incrementally reveal more and more space beneath the plant foliage. We experiment with a synthetic (vines) and a real plant (Dracaena) on a physical test-bed across 5 settings including 2 settings that test generalization to novel plant configurations. Our experiments reveal the effectiveness of our overall method, PPG, over a competitive hand-crafted exploration method, and the effectiveness of SRPNet over a hand-crafted dynamics model and relevant ablations.
- Abstract(参考訳): 自律農業の応用(例えば、検査、表現型付け、果物の摘み取りなど)は、葉や枝の後ろを見るために植物の葉を操作する必要がある。
部分的な可視性、極端に粗い構造、植物のための未知の幾何学と力学は、そのような操作を困難にしている。
データ駆動方式でこれらの課題に取り組む。
SRPNetは、特定の植物に対する候補アクションの実行時に、どの空間が露呈しているかを予測するニューラルネットワークである。
我々はSRPNetとクロスエントロピー法を用いて,植物の葉の下の空間を明らかにするのに有効な行動を予測する。
さらに、SRPNetは、どれだけの空間が露光されるかだけでなく、どこでその空間が露光されるかを予測するだけでなく、植物の葉の下のより多くの空間を漸進的に露光する一連の行動を実行することができる。
本研究は, 人工植物(Dracaena) と実植物(Dracaena) を, 新しい植物構成への一般化をテストする2つの設定を含む5つの物理的テストベッド上で実験した。
本実験は,本手法が手作り探索法よりも有効であること,手作り力学モデルよりもSRPNetが有効であること,および関連する問題点を明らかにするものである。
関連論文リスト
- PlantCamo: Plant Camouflage Detection [60.685139083469956]
本稿では,植物カモフラージュ検出(PCD)の課題を紹介する。
この問題に対処するため,カモフラージュ植物を用いた1,250枚の画像からなるPlantCamoデータセットを導入した。
提案したデータセット上で20以上の最先端CODモデルを用いて大規模なベンチマーク研究を行う。
マルチスケールのグローバル機能拡張と改良により,PCNetはパフォーマンスを上回りました。
論文 参考訳(メタデータ) (2024-10-23T06:51:59Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - PlantTrack: Task-Driven Plant Keypoint Tracking with Zero-Shot Sim2Real Transfer [4.923031976899536]
植物の特徴の追跡は、表現型付け、刈り取り、収穫などの様々な農業作業に不可欠である。
そこで我々は,DINOv2を用いて高次元特徴を提供するPlantTrackを提案し,キーポイントヒートマップ予測ネットワークを訓練する。
キーポイント予測器を訓練するための20個の合成画像を用いて,実環境における植物の特徴を効果的に追跡できるゼロショットSim2Real転送を実現する。
論文 参考訳(メタデータ) (2024-07-23T20:40:17Z) - Planning with Adaptive World Models for Autonomous Driving [50.4439896514353]
運動プランナー(MP)は複雑な都市環境における安全なナビゲーションに不可欠である。
最近リリースされたMPベンチマークであるnuPlanは、クローズドループシミュレーションロジックで現実世界の駆動ログを拡張することで、この制限に対処している。
本稿では,モデル予測制御(MPC)ベースのプランナであるAdaptiveDriverを提案する。
論文 参考訳(メタデータ) (2024-06-15T18:53:45Z) - Zoom in on the Plant: Fine-grained Analysis of Leaf, Stem and Vein
Instances [3.399289369740637]
本研究では,葉,茎,静脈などの微細な表現型情報を抽出するモデルを開発した。
基盤となるデータセットRumexLeavesは公開されており、この種の最初のものである。
キーポイント誘導ポリラインの概念に従う適応された計量POKSを導入する。
論文 参考訳(メタデータ) (2023-12-14T10:45:54Z) - Semantics-Aware Next-best-view Planning for Efficient Search and Detection of Task-relevant Plant Parts [3.9074818653555554]
トマトの収穫・脱葉を自動化するためには,作業関連部位の探索・検出が重要である。
現在のアクティブビジョンアルゴリズムは、関連する部分と無関係な植物部位を区別できない。
本稿では,意味情報を用いて関連する植物部位を識別するセマンティックス・アウェア・アクティブビジョン戦略を提案する。
論文 参考訳(メタデータ) (2023-06-16T12:22:19Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - Deep Transfer Learning For Plant Center Localization [19.322420819302263]
本稿では,無人航空機(UAV)を用いたRGB空中画像を用いた畑型作物の立地推定手法について検討する。
深層学習アプローチは、RGB画像で観察された植物を探索するために有望な能力を提供するが、トレーニングには大量のラベル付きデータ(地上真実)を必要とする。
そこで本研究では,限定的な地上真実データを用いて,既存モデルを新たなシナリオに移行することにより,プラント中心の推定手法を提案する。
論文 参考訳(メタデータ) (2020-04-29T06:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。