論文の概要: Delineate Anything: Resolution-Agnostic Field Boundary Delineation on Satellite Imagery
- arxiv url: http://arxiv.org/abs/2504.02534v1
- Date: Thu, 03 Apr 2025 12:37:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:56:22.380803
- Title: Delineate Anything: Resolution-Agnostic Field Boundary Delineation on Satellite Imagery
- Title(参考訳): 衛星画像上の分解能非依存界境界線
- Authors: Mykola Lavreniuk, Nataliia Kussul, Andrii Shelestov, Bohdan Yailymov, Yevhenii Salii, Volodymyr Kuzin, Zoltan Szantoi,
- Abstract要約: 大規模でマルチ解像度なインスタンスデータセットであるField Boundary Instance - 22Mデータセット(FBIS-22M)を紹介した。
我々は、FBIS-22Mデータセットに基づいてトレーニングされたインスタンスセグメンテーションモデルであるDelineate Anythingを提案する。
提案モデルでは,mAP@0.5で88.5%,mAP@0.5:0.95で103%の大幅な改善を実現した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The accurate delineation of agricultural field boundaries from satellite imagery is vital for land management and crop monitoring. However, current methods face challenges due to limited dataset sizes, resolution discrepancies, and diverse environmental conditions. We address this by reformulating the task as instance segmentation and introducing the Field Boundary Instance Segmentation - 22M dataset (FBIS-22M), a large-scale, multi-resolution dataset comprising 672,909 high-resolution satellite image patches (ranging from 0.25 m to 10 m) and 22,926,427 instance masks of individual fields, significantly narrowing the gap between agricultural datasets and those in other computer vision domains. We further propose Delineate Anything, an instance segmentation model trained on our new FBIS-22M dataset. Our proposed model sets a new state-of-the-art, achieving a substantial improvement of 88.5% in mAP@0.5 and 103% in mAP@0.5:0.95 over existing methods, while also demonstrating significantly faster inference and strong zero-shot generalization across diverse image resolutions and unseen geographic regions. Code, pre-trained models, and the FBIS-22M dataset are available at https://lavreniuk.github.io/Delineate-Anything.
- Abstract(参考訳): 衛星画像から農業領域の境界線を正確に決定することは、土地管理と作物モニタリングに不可欠である。
しかし、現在の手法はデータセットのサイズや解像度の相違、環境条件の多様さといった問題に直面している。
課題をインスタンスセグメンテーションとして再編成し,フィールド境界インスタンスセグメンテーション - 22Mデータセット(FBIS-22M)を導入し,672,909個の高解像度衛星画像パッチ(0.25mから10m)と22,926,427個の個別フィールドのインスタンスマスクからなる大規模マルチ解像度データセットを作成した。
さらに、新しいFBIS-22Mデータセットに基づいてトレーニングされたインスタンスセグメンテーションモデルであるDelineate Anythingを提案する。
提案モデルでは,既存の手法に比べて88.5%のmAP@0.5,103%のmAP@0.5:0.95の精度向上を実現した。
コード、事前訓練されたモデル、FBIS-22Mデータセットはhttps://lavreniuk.github.io/Delineate-Anything.comで入手できる。
関連論文リスト
- EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - Fields of The World: A Machine Learning Benchmark Dataset For Global Agricultural Field Boundary Segmentation [12.039406240082515]
Fields of The World (FTW)は、農業分野のインスタンスセグメンテーションのための新しいベンチマークデータセットである。
FTWは70,462個のサンプルを持つ以前のデータセットよりも桁違いに大きい。
FTWで訓練されたモデルは、留保国において、ゼロショットと微調整性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-09-24T17:20:58Z) - Plant detection from ultra high resolution remote sensing images: A Semantic Segmentation approach based on fuzzy loss [2.6489824612123716]
超高解像度(UHR)リモートセンシング画像から植物種を識別する課題に取り組む。
我々のアプローチは、ミリレベルの空間分解能を特徴とするRGBリモートセンシングデータセットの導入である。
UHRデータセットと公開データセットの両方で得られた最初の実験結果が提示され、提案手法の妥当性が示された。
論文 参考訳(メタデータ) (2024-08-31T17:40:17Z) - Multi-Region Transfer Learning for Segmentation of Crop Field Boundaries in Satellite Images with Limited Labels [6.79949280366368]
本稿では,ラベル付きデータを持たない地域での衛星画像における作物の畑の境界のセグメンテーションについて述べる。
提案手法は既存の手法よりも優れており,マルチリージョン転送学習によって複数のモデルアーキテクチャの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-03-29T22:24:12Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Global Context Vision Transformers [78.5346173956383]
我々は,コンピュータビジョンのパラメータと計算利用を向上する新しいアーキテクチャであるGC ViT(Global context vision transformer)を提案する。
本稿では,ViTにおける帰納バイアスの欠如に対処し,アーキテクチャにおける可溶性逆残差ブロックを改良して活用することを提案する。
提案したGC ViTは,画像分類,オブジェクト検出,セマンティックセマンティックセグメンテーションタスクにまたがる最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-06-20T18:42:44Z) - Sci-Net: a Scale Invariant Model for Building Detection from Aerial
Images [0.0]
本研究では,空間分解能の異なる空間画像に存在している建物を分割できるスケール不変ニューラルネットワーク(Sci-Net)を提案する。
具体的には,U-Netアーキテクチャを改良し,それを高密度なASPP(Atrous Space Pyramid Pooling)で融合し,微細なマルチスケール表現を抽出した。
論文 参考訳(メタデータ) (2021-11-12T16:45:20Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - TJU-DHD: A Diverse High-Resolution Dataset for Object Detection [48.94731638729273]
大規模でリッチな多様性と高解像度のデータセットは、よりよいオブジェクト検出方法を開発する上で重要な役割を果たす。
私たちは多種多様な高解像度データセット(TJU-DHD)を構築します。
データセットには115,354枚の高解像度画像と709,330個のラベル付きオブジェクトが含まれており、スケールと外観に大きな違いがある。
論文 参考訳(メタデータ) (2020-11-18T09:32:24Z) - Weakly Supervised Domain Adaptation for Built-up Region Segmentation in
Aerial and Satellite Imagery [3.8508264614798517]
環境に対する人間の影響,公共政策の影響,一般都市人口分析を理解する上で,構築された地域推定は重要な要素である。
航空や衛星画像の多様性と、この多様性をカバーするラベル付きデータの欠如により、機械学習アルゴリズムの一般化が困難になる。
本稿では,衛星画像と空中画像の課題に対処する新しい領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-05T10:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。