論文の概要: Effective Data Fusion with Generalized Vegetation Index: Evidence from
Land Cover Segmentation in Agriculture
- arxiv url: http://arxiv.org/abs/2005.03743v1
- Date: Thu, 7 May 2020 20:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 23:42:17.462104
- Title: Effective Data Fusion with Generalized Vegetation Index: Evidence from
Land Cover Segmentation in Agriculture
- Title(参考訳): 植生指標を用いた有効データ融合:農業における土地被覆区分による実証
- Authors: Hao Sheng, Xiao Chen, Jingyi Su, Ram Rajagopal, and Andrew Ng
- Abstract要約: 本稿では,植生関連コンピュータビジョンタスクに対するモデルに依存しないデータ融合手法を提案する。
各種植生指標 (VIs) に触発され, リモートセンシングに広く用いられているVIsを系統的に検討し, 深層ニューラルネットワークに組み込む可能性について検討した。
我々のアプローチでは、植生関連クラスのIoUを0.9-1.3%改善し、mIoU全体の2%をベースラインで継続的に改善しています。
- 参考スコア(独自算出の注目度): 16.329286069367093
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: How can we effectively leverage the domain knowledge from remote sensing to
better segment agriculture land cover from satellite images? In this paper, we
propose a novel, model-agnostic, data-fusion approach for vegetation-related
computer vision tasks. Motivated by the various Vegetation Indices (VIs), which
are introduced by domain experts, we systematically reviewed the VIs that are
widely used in remote sensing and their feasibility to be incorporated in deep
neural networks. To fully leverage the Near-Infrared channel, the traditional
Red-Green-Blue channels, and Vegetation Index or its variants, we propose a
Generalized Vegetation Index (GVI), a lightweight module that can be easily
plugged into many neural network architectures to serve as an additional
information input. To smoothly train models with our GVI, we developed an
Additive Group Normalization (AGN) module that does not require extra
parameters of the prescribed neural networks. Our approach has improved the
IoUs of vegetation-related classes by 0.9-1.3 percent and consistently improves
the overall mIoU by 2 percent on our baseline.
- Abstract(参考訳): リモートセンシングによるドメイン知識を効果的に活用して,衛星画像から農業用土地被覆を分割できるのか?
本稿では,植生関連コンピュータビジョンタスクのための新しいモデル非依存データフュージョン手法を提案する。
ドメインの専門家が導入した各種植生指標(VIs)に触発され,リモートセンシングに広く用いられているVIsと,深層ニューラルネットワークに組み込む可能性について系統的に検討した。
近赤外チャネル,従来の赤-緑-青チャネル,植生指数あるいはその変種をフル活用するために,多くのニューラルネットワークアーキテクチャに簡単に接続して追加情報入力を行う軽量モジュールであるGeneralized Vegetation Index (GVI)を提案する。
GVIを用いてモデルを円滑にトレーニングするために、所定のニューラルネットワークの余分なパラメータを必要としない追加グループ正規化(AGN)モジュールを開発した。
我々のアプローチは植生関連クラスのIoUを0.9-1.3%改善し、mIoU全体の2%をベースラインで継続的に改善している。
関連論文リスト
- KAN You See It? KANs and Sentinel for Effective and Explainable Crop Field Segmentation [16.358846714992893]
本稿では,Sentinel-2 と Sentinel-1 の衛星画像を用いて,Kan 層を U-Net アーキテクチャ (U-KAN) に統合して作物畑の分割を行う。
以上の結果より,従来の完全畳み込み型U-Netモデルに比べて,GFLOPが2%改善したことが示唆された。
論文 参考訳(メタデータ) (2024-08-13T17:07:29Z) - Residual Graph Convolutional Network for Bird's-Eye-View Semantic
Segmentation [3.8073142980733]
本稿では,Residual Graph Convolutional (RGC) モジュールを深層CNNに組み込むことを提案する。
RGCモジュールは、完全なBird's-Eye-View (BEV)情報をグラフ空間に効率的に投影する。
RGCネットワークは、IoUとmIoUの4つの最先端ネットワークと4つの変種を上回ります。
論文 参考訳(メタデータ) (2023-12-07T05:04:41Z) - Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - Extended Agriculture-Vision: An Extension of a Large Aerial Image
Dataset for Agricultural Pattern Analysis [11.133807938044804]
農業ビジョンデータセットの改良版(Chiu et al., 2020b)をリリースする。
このデータセットは,3600大,高解像度(10cm/ピクセル),フルフィールド,赤緑色,近赤外画像の事前トレーニングにより拡張する。
下流分類とセマンティックセグメンテーションの両タスクにおいて、異なるコントラスト学習アプローチをベンチマークすることで、このデータの有用性を実証する。
論文 参考訳(メタデータ) (2023-03-04T17:35:24Z) - TAS-NIR: A VIS+NIR Dataset for Fine-grained Semantic Segmentation in
Unstructured Outdoor Environments [4.111899441919165]
可視色スペクトル(VIS)と近赤外スペクトル(NIR)のペア画像に基づく植生指標がリモートセンシングアプリケーションで広く利用されている。
標準差分植生指数(NDVI)や拡張植生指数(EVI)のような従来の植生指標と、利用可能なVISデータセットで事前トレーニングされた畳み込みニューラルネットワーク(CNN)を組み合わせられる。
非構造屋外環境における意味的注釈付き画像のVIS+NIRデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-12-19T11:10:50Z) - AFR-Net: Attention-Driven Fingerprint Recognition Network [47.87570819350573]
指紋認識を含む生体認証における視覚変換器(ViT)の使用に関する初期研究を改善する。
ネットワーク内の中間特徴マップから抽出した局所的な埋め込みを用いて,グローバルな埋め込みを低確かさで洗練する手法を提案する。
この戦略は、既存のディープラーニングネットワーク(アテンションベース、CNNベース、あるいはその両方を含む)のラッパーとして適用することで、パフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2022-11-25T05:10:39Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - GANav: Group-wise Attention Network for Classifying Navigable Regions in
Unstructured Outdoor Environments [54.21959527308051]
本稿では,RGB画像から,オフロード地形および非構造環境における安全かつ航行可能な領域を識別する新しい学習手法を提案する。
本手法は,粒度の粗いセマンティックセグメンテーションを用いて,そのナビビリティレベルに基づいて地形分類群を分類する。
RUGD と RELLIS-3D のデータセットを広範囲に評価することにより,我々の学習アルゴリズムがナビゲーションのためのオフロード地形における視覚知覚の精度を向上させることを示す。
論文 参考訳(メタデータ) (2021-03-07T02:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。