論文の概要: Crossmodal learning for Crop Canopy Trait Estimation
- arxiv url: http://arxiv.org/abs/2511.16031v1
- Date: Thu, 20 Nov 2025 04:25:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.466545
- Title: Crossmodal learning for Crop Canopy Trait Estimation
- Title(参考訳): 作物キャノピー系統推定のためのクロスモーダル学習
- Authors: Timilehin T. Ayanlade, Anirudha Powadi, Talukder Z. Jubery, Baskar Ganapathysubramanian, Soumik Sarkar,
- Abstract要約: 本稿では,高解像度衛星画像にUAVレベルの視覚的ディテールを付加したクロスモーダル学習手法を提案する。
我々は、米国コーンベルトの5つの異なる場所にわたって84種類のハイブリッドトウモロコシ品種の複製されたプロットから収集された、ほぼ同一の衛星UAV画像対のデータセットを使用する。
その結果、衛星入力から生成されたUAVライクな表現は、収量や窒素予測を含む複数の下流タスクにおいて、実際の衛星画像よりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 8.011752394739903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in plant phenotyping have driven widespread adoption of multi sensor platforms for collecting crop canopy reflectance data. This includes the collection of heterogeneous data across multiple platforms, with Unmanned Aerial Vehicles (UAV) seeing significant usage due to their high performance in crop monitoring, forecasting, and prediction tasks. Similarly, satellite missions have been shown to be effective for agriculturally relevant tasks. In contrast to UAVs, such missions are bound to the limitation of spatial resolution, which hinders their effectiveness for modern farming systems focused on micro-plot management. In this work, we propose a cross modal learning strategy that enriches high-resolution satellite imagery with UAV level visual detail for crop canopy trait estimation. Using a dataset of approximately co registered satellite UAV image pairs collected from replicated plots of 84 hybrid maize varieties across five distinct locations in the U.S. Corn Belt, we train a model that learns fine grained spectral spatial correspondences between sensing modalities. Results show that the generated UAV-like representations from satellite inputs consistently outperform real satellite imagery on multiple downstream tasks, including yield and nitrogen prediction, demonstrating the potential of cross-modal correspondence learning to bridge the gap between satellite and UAV sensing in agricultural monitoring.
- Abstract(参考訳): 近年の植物表現の進歩は、作物の天蓋反射率データを収集するための多センサプラットフォームの普及に拍車を掛けている。
これには、複数のプラットフォームにまたがる異種データの収集が含まれており、無人航空機(UAV)は、作物のモニタリング、予測、予測タスクにおける高いパフォーマンスのために、かなりの使用率を示している。
同様に、人工衛星のミッションは農業関連業務に有効であることが示されている。
UAVとは対照的に、そのようなミッションは空間分解能の限界に縛られ、マイクロプロット管理に焦点を当てた近代的な農業システムにおいてその効果を妨げている。
本研究では,高解像度衛星画像にUAVレベルの視覚的ディテールを付加したクロスモーダル学習手法を提案する。
コーンベルトの5つの異なる場所で、84種類のハイブリッドトウモロコシの複製プロットから収集された、およそ共登録衛星UAV画像ペアのデータセットを用いて、センシングモダリティ間のきめ細かいスペクトル空間対応を学習するモデルを訓練する。
その結果、衛星入力から生成されたUAV様の表現は、収量や窒素予測を含む複数の下流タスクにおいて、実際の衛星画像よりも一貫して優れており、農業モニタリングにおける衛星とUAVセンシングのギャップを埋めるクロスモーダル対応学習の可能性を示している。
関連論文リスト
- AerialVG: A Challenging Benchmark for Aerial Visual Grounding by Exploring Positional Relations [51.44608822712786]
ビジュアルグラウンドイングは、自然言語記述に基づいたイメージ内のターゲットオブジェクトのローカライズを目的としている。
AerialVGは、例えば外見に基づく接地は、複数の視覚的に類似した物体を識別するには不十分である。
5Kの空中画像,50Kの注釈付き記述,103Kのオブジェクトからなる,最初のAerialVGデータセットを紹介した。
論文 参考訳(メタデータ) (2025-04-10T15:13:00Z) - WeedsGalore: A Multispectral and Multitemporal UAV-based Dataset for Crop and Weed Segmentation in Agricultural Maize Fields [0.7421845364041001]
雑草は作物の収穫が減少する主な原因の1つであるが、現在の雑草の慣行は、効率的で標的とした方法で雑草を管理するのに失敗している。
農作物畑における作物と雑草のセマンティックスとインスタンスセグメンテーションのための新しいデータセットを提案する。
論文 参考訳(メタデータ) (2025-02-18T18:13:19Z) - UAVDB: Point-Guided Masks for UAV Detection and Segmentation [0.03464344220266879]
UAVの検出とセグメンテーションのための新しいベンチマークデータセットであるUAVDBを提案する。
ポイント誘導の弱い監視パイプライン上に構築されている。
UAVDBは、可視オブジェクトからほぼ1ピクセルのインスタンスまで、さまざまなスケールでUAVをキャプチャする。
論文 参考訳(メタデータ) (2024-09-09T13:27:53Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - SatMAE: Pre-training Transformers for Temporal and Multi-Spectral
Satellite Imagery [74.82821342249039]
Masked Autoencoder(MAE)に基づく時間・マルチスペクトル衛星画像の事前学習フレームワークであるSatMAEについて述べる。
時間的情報を活用するために、時間にわたって画像パッチを個別にマスキングする時間的埋め込みを含む。
論文 参考訳(メタデータ) (2022-07-17T01:35:29Z) - Vision-Based UAV Self-Positioning in Low-Altitude Urban Environments [20.69412701553767]
無人航空機(UAV)は安定した位置決めのために衛星システムに依存している。
このような状況下では、視覚に基づく技術が代替手段として機能し、UAVの自己配置能力を確実にする。
本稿では,UAV自己配置タスク用に設計された最初の公開データセットであるDenseUAVを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:18:55Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - UAV and Machine Learning Based Refinement of a Satellite-Driven
Vegetation Index for Precision Agriculture [0.8399688944263843]
本稿では,深層学習技術に基づく新しい衛星画像補正フレームワークを提案する。
無人航空機(UAV)が取得した高解像度画像から得られる情報を適切に活用する。
セラルンガ・ダルバ (Serralunga d'Alba) のブドウ園は、検証のためのケーススタディとして選ばれた。
論文 参考訳(メタデータ) (2020-04-29T18:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。