論文の概要: Fusion of Satellite Images and Weather Data with Transformer Networks
for Downy Mildew Disease Detection
- arxiv url: http://arxiv.org/abs/2209.02797v1
- Date: Tue, 6 Sep 2022 19:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:03:07.754443
- Title: Fusion of Satellite Images and Weather Data with Transformer Networks
for Downy Mildew Disease Detection
- Title(参考訳): 衛星画像と気象データと変圧器ネットワークの融合による軽度疾患検出
- Authors: William Maillet, Maryam Ouhami, Adel Hafiane
- Abstract要約: 作物病は農業生産量と品質に大きな影響を及ぼす。
本稿では,3つのトランスを用いたデータ融合を実現するための新しい手法を提案する。
このアーキテクチャは、視覚変換器と2つの変換器エンコーダという3つの主要コンポーネントで構築されており、画像と気象の両方を融合させることができる。
- 参考スコア(独自算出の注目度): 3.6868861317674524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Crop diseases significantly affect the quantity and quality of agricultural
production. In a context where the goal of precision agriculture is to minimize
or even avoid the use of pesticides, weather and remote sensing data with deep
learning can play a pivotal role in detecting crop diseases, allowing localized
treatment of crops. However, combining heterogeneous data such as weather and
images remains a hot topic and challenging task. Recent developments in
transformer architectures have shown the possibility of fusion of data from
different domains, for instance text-image. The current trend is to custom only
one transformer to create a multimodal fusion model. Conversely, we propose a
new approach to realize data fusion using three transformers. In this paper, we
first solved the missing satellite images problem, by interpolating them with a
ConvLSTM model. Then, proposed a multimodal fusion architecture that jointly
learns to process visual and weather information. The architecture is built
from three main components, a Vision Transformer and two transformer-encoders,
allowing to fuse both image and weather modalities. The results of the proposed
method are promising achieving 97\% overall accuracy.
- Abstract(参考訳): 作物病は農業生産量と品質に大きな影響を及ぼす。
精密農業の目標は農薬の使用を最小限にしたり避けたりすることであり、天候や深層学習によるリモートセンシングデータは作物病の検出に重要な役割を果たし、作物の局所的な処理を可能にする。
しかし、気象や画像などの異種データを組み合わせることはホットな話題であり、課題である。
トランスアーキテクチャの最近の進歩は、例えばテキストイメージなど、異なるドメインからのデータの融合の可能性を示している。
現在のトレンドは、マルチモーダル融合モデルを作成するために1つのトランスフォーマーだけをカスタマイズすることです。
逆に,3つのトランスを用いてデータ融合を実現する手法を提案する。
本稿では,convlstmモデルを用いて衛星画像の欠落問題を補間することにより,まず解き明かした。
次に,視覚情報と気象情報を同時に処理するマルチモーダル融合アーキテクチャを提案する。
アーキテクチャは、視覚トランスフォーマーと2つのトランスフォーマーエンコーダという3つの主要コンポーネントで構成されており、イメージと気象モードの両方を融合することができる。
提案手法の結果, 全体の精度は97\% に達することが期待できる。
関連論文リスト
- Transformer Fusion with Optimal Transport [25.022849817421964]
Fusionは、独立に訓練された複数のニューラルネットワークをマージして、それらの能力を組み合わせる技術である。
本稿では, トランスポートを利用した2つ以上のトランスフォーマーネットワークを (ソフト) に融合させる手法を提案する。
論文 参考訳(メタデータ) (2023-10-09T13:40:31Z) - Mutual Information-driven Triple Interaction Network for Efficient Image
Dehazing [54.168567276280505]
画像デハージングのための相互情報駆動型トリプルインタラクションネットワーク(MITNet)を提案する。
振幅誘導ヘイズ除去と呼ばれる第1段階は、ヘイズ除去のためのヘイズ画像の振幅スペクトルを復元することを目的としている。
第2段階は位相誘導構造が洗練され、位相スペクトルの変換と微細化を学ぶことに尽力した。
論文 参考訳(メタデータ) (2023-08-14T08:23:58Z) - Improving FHB Screening in Wheat Breeding Using an Efficient Transformer
Model [0.0]
フサリウム・ヘッド・ブライト(Fusarium head blight)は、小さな穀物に毎年重大な経済的損失をもたらす壊滅的な病気である。
FHBの早期検出のために,教師付き機械学習アルゴリズムを用いて画像処理技術を開発した。
変圧器モデルにU-Netネットワークの局所表現機能を統合するために,新しいContext Bridgeを提案する。
論文 参考訳(メタデータ) (2023-08-07T15:44:58Z) - HST-MRF: Heterogeneous Swin Transformer with Multi-Receptive Field for
Medical Image Segmentation [5.51045524851432]
医用画像セグメンテーションのためのHST-MRFモデルを提案する。
主な目的は、トランスを用いたパッチセグメンテーションによる構造情報の損失を解決することである。
実験の結果,提案手法は最先端モデルよりも優れ,優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-04-10T14:30:03Z) - TFormer: A throughout fusion transformer for multi-modal skin lesion
diagnosis [6.899641625551976]
我々は,MSLDで十分な情報干渉を行うために,純粋なトランスフォーマーベースのTFormer(スルーアウト・フュージョン・トランスフォーマー)を提案する。
そこで我々は,2分岐階層型マルチモーダルトランス (HMT) ブロックのスタックを慎重に設計し,ステージバイステージ方式で異なる画像モダリティ間で情報を融合する。
我々のTFormerは、他の最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-11-21T12:07:05Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - VoRTX: Volumetric 3D Reconstruction With Transformers for Voxelwise View
Selection and Fusion [68.68537312256144]
VoRTXは、多視点機能融合のためのトランスフォーマーを用いた、エンドツーエンドのボリューム3D再構成ネットワークである。
我々は、ScanNet上でモデルをトレーニングし、最先端の手法よりも優れた再構築を実現することを示す。
論文 参考訳(メタデータ) (2021-12-01T02:18:11Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z) - TransVG: End-to-End Visual Grounding with Transformers [102.11922622103613]
本稿では,画像に対して言語クエリを接地するタスクに対処するためのトランスフォーマティブベースのフレームワークであるtransvgを提案する。
複雑な核融合モジュールは、高い性能でトランスフォーマーエンコーダ層を単純なスタックで置き換えることができることを示す。
論文 参考訳(メタデータ) (2021-04-17T13:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。