論文の概要: Aerial Imagery Pixel-level Segmentation
- arxiv url: http://arxiv.org/abs/2012.02024v1
- Date: Thu, 3 Dec 2020 16:09:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 20:50:36.680563
- Title: Aerial Imagery Pixel-level Segmentation
- Title(参考訳): 航空画像のピクセルレベルセグメンテーション
- Authors: Michael R. Heffels and Joaquin Vanschoren
- Abstract要約: 一般的なデータセットと空中画像データの間にパフォーマンスギャップを埋める。
私たちの研究は、最先端のDeepLabv3+ Xception65アーキテクチャを使用して、DroneDeployバリデーションセットで平均70%のIOUを実現しています。
- 参考スコア(独自算出の注目度): 0.4079265319364249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aerial imagery can be used for important work on a global scale.
Nevertheless, the analysis of this data using neural network architectures lags
behind the current state-of-the-art on popular datasets such as PASCAL VOC,
CityScapes and Camvid. In this paper we bridge the performance-gap between
these popular datasets and aerial imagery data. Little work is done on aerial
imagery with state-of-the-art neural network architectures in a multi-class
setting. Our experiments concerning data augmentation, normalisation, image
size and loss functions give insight into a high performance setup for aerial
imagery segmentation datasets. Our work, using the state-of-the-art DeepLabv3+
Xception65 architecture, achieves a mean IOU of 70% on the DroneDeploy
validation set. With this result, we clearly outperform the current publicly
available state-of-the-art validation set mIOU (65%) performance with 5%.
Furthermore, to our knowledge, there is no mIOU benchmark for the test set.
Hence, we also propose a new benchmark on the DroneDeploy test set using the
best performing DeepLabv3+ Xception65 architecture, with a mIOU score of 52.5%.
- Abstract(参考訳): 航空画像は世界規模の重要な研究に利用することができる。
それでも、ニューラルネットワークアーキテクチャを使用したデータ分析は、PASCAL VOC、CityScapes、Camvidといった一般的なデータセットの最先端に遅れを取っている。
本稿では,これらの一般的なデータセットと航空画像データ間のパフォーマンスギャップを橋渡しする。
最先端のニューラルネットワークアーキテクチャを複数クラスに設定した,空中画像に関する作業はほとんど行われない。
データ拡張、正規化、画像サイズ、損失関数に関する実験は、航空画像セグメンテーションデータセットの高性能設定に関する洞察を与える。
最先端のdeeplabv3+xception65アーキテクチャを使用して、dronedeployバリデーションセットで平均70%のiouを達成しています。
その結果、現在公開されている最先端の検証セットmIOU(65%)のパフォーマンスを5%で上回りました。
さらに、私たちの知る限り、テストセットのmIOUベンチマークはありません。
そこで我々は,miouスコア52.5%のdeeplabv3+xception65アーキテクチャを用いて,dronedeployテストセットの新しいベンチマークを提案する。
関連論文リスト
- From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - Raising the Bar of AI-generated Image Detection with CLIP [50.345365081177555]
本研究の目的は、AI生成画像の普遍的検出のための事前学習された視覚言語モデル(VLM)の可能性を探ることである。
我々は,CLIP機能に基づく軽量な検出戦略を開発し,その性能を様々な難易度シナリオで検証する。
論文 参考訳(メタデータ) (2023-11-30T21:11:20Z) - Memory-Efficient Graph Convolutional Networks for Object Classification
and Detection with Event Cameras [2.3311605203774395]
グラフ畳み込みネットワーク(GCN)は、イベントデータを解析するための有望なアプローチである。
本稿では,満足度の高い結果と比較的低いモデル複雑性を達成するために,両要因を共に検討する。
その結果,特徴抽出モジュールのパラメータ数を450倍に減らし,データ表現のサイズを4.5倍に減らした。
論文 参考訳(メタデータ) (2023-07-26T11:44:44Z) - Efficient Deduplication and Leakage Detection in Large Scale Image
Datasets with a focus on the CrowdAI Mapping Challenge Dataset [5.149242555705579]
本稿では,知覚的ハッシュ技術を用いて効率的にデータセットを複製するドロップインパイプラインを提案する。
実験では,トレーニング分割中の250k($ sim $90%)近い画像が同一であることを示した。
その結果,60k画像の約56kがトレーニングスプリットに表示され,データ漏洩は93%であった。
論文 参考訳(メタデータ) (2023-04-05T08:36:17Z) - BuildSeg: A General Framework for the Segmentation of Buildings [19.296282254565885]
空中画像と3Dレーザースキャン(LiDAR)からのセグメンテーションの構築は,背景の多様性,建築テクスチャ,画質の面で難しい課題である。
本稿では,セグメント構造に迅速に適用可能な汎用的なアプローチを用いて,emphBuildSegという汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-15T21:09:00Z) - {\mu}Split: efficient image decomposition for microscopy data [50.794670705085835]
muSplitは、蛍光顕微鏡画像の文脈で訓練された画像分解のための専用アプローチである。
本稿では,大規模な画像コンテキストのメモリ効率向上を実現するメタアーキテクチャである横型文脈化(LC)を提案する。
muSplitを5つの分解タスクに適用し、1つは合成データセットに、もう4つは実際の顕微鏡データから導出する。
論文 参考訳(メタデータ) (2022-11-23T11:26:24Z) - Inverse Image Frequency for Long-tailed Image Recognition [59.40098825416675]
Inverse Image Frequency (IIF) と呼ばれる新しいデバイアス法を提案する。
IIFは畳み込みニューラルネットワークの分類層におけるロジットの乗法的マージン調整変換である。
我々の実験では、IIFは長い尾のベンチマークにおいて、最先端の技術を超越していることが示されている。
論文 参考訳(メタデータ) (2022-09-11T13:31:43Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - RGB2LIDAR: Towards Solving Large-Scale Cross-Modal Visual Localization [20.350871370274238]
我々は,大規模なモーダルな視覚的位置決めの重要かつ未解明な問題について検討する。
我々は550万組のRGBと空中LIDAR深度画像を含む新しいデータセットを導入する。
両モードの外観と意味的手がかりを効果的に組み合わせた新しい結合埋め込み方式を提案する。
論文 参考訳(メタデータ) (2020-09-12T01:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。