論文の概要: Push Past Green: Learning to Look Behind Plant Foliage by Moving It
- arxiv url: http://arxiv.org/abs/2307.03175v1
- Date: Thu, 6 Jul 2023 17:55:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 12:56:18.131725
- Title: Push Past Green: Learning to Look Behind Plant Foliage by Moving It
- Title(参考訳): 緑を追い越す - 植物葉を移動して見ることを学ぶ
- Authors: Xiaoyu Zhang, Saurabh Gupta
- Abstract要約: 部分的な可視性、極端に粗い構造、植物のための未知の幾何学と力学は、そのような操作を困難にしている。
SRPNetは、特定の植物に対する候補アクションの実行時に、どの空間が露呈しているかを予測するニューラルネットワークである。
SRPNetは、どれだけの空間が露光されるかだけでなく、どこで露光されるかも予測するだけでなく、植物の葉の下のより多くの空間を徐々に明らかにする一連の行動を実行することができる。
- 参考スコア(独自算出の注目度): 21.200318412303954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous agriculture applications (e.g., inspection, phenotyping, plucking
fruits) require manipulating the plant foliage to look behind the leaves and
the branches. Partial visibility, extreme clutter, thin structures, and unknown
geometry and dynamics for plants make such manipulation challenging. We tackle
these challenges through data-driven methods. We use self-supervision to train
SRPNet, a neural network that predicts what space is revealed on execution of a
candidate action on a given plant. We use SRPNet with the cross-entropy method
to predict actions that are effective at revealing space beneath plant foliage.
Furthermore, as SRPNet does not just predict how much space is revealed but
also where it is revealed, we can execute a sequence of actions that
incrementally reveal more and more space beneath the plant foliage. We
experiment with a synthetic (vines) and a real plant (Dracaena) on a physical
test-bed across 5 settings including 2 settings that test generalization to
novel plant configurations. Our experiments reveal the effectiveness of our
overall method, PPG, over a competitive hand-crafted exploration method, and
the effectiveness of SRPNet over a hand-crafted dynamics model and relevant
ablations.
- Abstract(参考訳): 自律農業の応用(例えば検査、表現型、摘み果物)には、葉と枝の後ろを見るために植物葉を操作する必要がある。
部分的な可視性、極端に粗い構造、植物のための未知の幾何学と力学は、そのような操作を困難にしている。
データ駆動方式でこれらの課題に取り組む。
SRPNetは、特定の植物に対する候補アクションの実行時に、どの空間が露呈しているかを予測するニューラルネットワークである。
我々は,srpnet とクロスエントロピー法を用いて,葉下空間の解明に有効な行動を予測した。
さらに、SRPNetは、どれだけの空間が露光されるかだけでなく、どこで露光されるかを予測するだけでなく、植物葉の下の空間を徐々に明らかにする一連の行動を実行することができる。
本研究は, 人工植物(Dracaena) と実植物(Dracaena) を, 新しい植物構成への一般化をテストする2つの設定を含む5つの物理的テストベッド上で実験した。
本研究は,手作り力学モデルと関連するアブレーションに対するsrpnetの有効性と,競合する手作り探索法に対する総合的手法であるppgの有効性を明らかにした。
関連論文リスト
- BonnBeetClouds3D: A Dataset Towards Point Cloud-based Organ-level
Phenotyping of Sugar Beet Plants under Field Conditions [30.27773980916216]
農業生産は今後数十年間、気候変動と持続可能性の必要性によって深刻な課題に直面している。
自律無人航空機(UAV)による作物のモニタリングと、ロボットによる非化学雑草によるフィールド管理の進歩は、これらの課題に対処するのに有用である。
表現型化と呼ばれる植物形質の分析は、植物の育種に不可欠な活動であるが、大量の手作業が伴う。
論文 参考訳(メタデータ) (2023-12-22T14:06:44Z) - Zoom in on the Plant: Fine-grained Analysis of Leaf, Stem and Vein
Instances [3.399289369740637]
本研究では,葉,茎,静脈などの微細な表現型情報を抽出するモデルを開発した。
基盤となるデータセットRumexLeavesは公開されており、この種の最初のものである。
キーポイント誘導ポリラインの概念に従う適応された計量POKSを導入する。
論文 参考訳(メタデータ) (2023-12-14T10:45:54Z) - DiMSam: Diffusion Models as Samplers for Task and Motion Planning under
Partial Observability [50.38132214102161]
タスク・アンド・モーション・プランニング(TAMP)アプローチは、長距離自律ロボット操作の計画に有効である。
本稿では,これらの制約を深層生成モデルを用いて克服することを提案する。
古典的TAMP, 生成学習, 潜伏埋め込みの組み合わせが, 長期的制約に基づく推論にどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-06-22T20:40:24Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Automated Pruning of Polyculture Plants [13.297983318693753]
ポリカルチャー農業は環境上の利点があるが、モノカルチャー農業よりもかなり多くの耕作を必要とする。
自動プルーニングのための新しいハードウェアとアルゴリズムを提案する。
結果は, 刈り取りせん断による植物多様性を0.94 に自律的に達成できることを示唆している。
論文 参考訳(メタデータ) (2022-08-22T17:49:22Z) - Auto-Parsing Network for Image Captioning and Visual Question Answering [101.77688388554097]
本稿では,入力データの隠れ木構造を発見し,活用するための自動パーシングネットワーク(APN)を提案する。
具体的には、各自己注意層における注意操作によってパラメータ化された確率的グラフモデル(PGM)を課し、スパース仮定を組み込む。
論文 参考訳(メタデータ) (2021-08-24T08:14:35Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Temporal Prediction and Evaluation of Brassica Growth in the Field using
Conditional Generative Adversarial Networks [1.2926587870771542]
植物の成長予測は、多種多様な環境要因によって影響を受けるため、大きな課題である。
本稿では,高スループット撮像センサ測定とその自動解析を含む新しいモニタリング手法を提案する。
提案手法のコアは条件付き生成型adversarial networkに基づく新しい機械学習ベースの成長モデルである。
論文 参考訳(メタデータ) (2021-05-17T13:00:01Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - Deep Transfer Learning For Plant Center Localization [19.322420819302263]
本稿では,無人航空機(UAV)を用いたRGB空中画像を用いた畑型作物の立地推定手法について検討する。
深層学習アプローチは、RGB画像で観察された植物を探索するために有望な能力を提供するが、トレーニングには大量のラベル付きデータ(地上真実)を必要とする。
そこで本研究では,限定的な地上真実データを用いて,既存モデルを新たなシナリオに移行することにより,プラント中心の推定手法を提案する。
論文 参考訳(メタデータ) (2020-04-29T06:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。