論文の概要: A Histogram Thresholding Improvement to Mask R-CNN for Scalable
Segmentation of New and Old Rural Buildings
- arxiv url: http://arxiv.org/abs/2102.04838v1
- Date: Mon, 8 Feb 2021 02:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 14:52:50.863200
- Title: A Histogram Thresholding Improvement to Mask R-CNN for Scalable
Segmentation of New and Old Rural Buildings
- Title(参考訳): 新旧農村建物の拡張セグメント化のためのマスクR-CNNのヒストグラム化
- Authors: Ying Li, Weipan Xu, Haohui Chen, Junhao Jiang, Xun Li
- Abstract要約: 本研究では,HTMask R-CNNと命名されたMask R-CNNに基づく新しいフレームワークを提案する。
このフレームワークは, 従来のMask R-CNNモデルよりもはるかに高い平均精度(mAP)を実現することができることがわかった。
- 参考スコア(独自算出の注目度): 6.847922717525304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mapping new and old buildings are of great significance for understanding
socio-economic development in rural areas. In recent years, deep neural
networks have achieved remarkable building segmentation results in
high-resolution remote sensing images. However, the scarce training data and
the varying geographical environments have posed challenges for scalable
building segmentation. This study proposes a novel framework based on Mask
R-CNN, named HTMask R-CNN, to extract new and old rural buildings even when the
label is scarce. The framework adopts the result of single-object instance
segmentation from the orthodox Mask R-CNN. Further, it classifies the rural
buildings into new and old ones based on a dynamic grayscale threshold inferred
from the result of a two-object instance segmentation task where training data
is scarce. We found that the framework can extract more buildings and achieve a
much higher mean Average Precision (mAP) than the orthodox Mask R-CNN model. We
tested the novel framework's performance with increasing training data and
found that it converged even when the training samples were limited. This
framework's main contribution is to allow scalable segmentation by using
significantly fewer training samples than traditional machine learning
practices. That makes mapping China's new and old rural buildings viable.
- Abstract(参考訳): 新しい建物や古い建物を地図化することは、農村部の社会経済発展を理解する上で非常に重要である。
近年,ディープニューラルネットワークは高分解能リモートセンシング画像のセグメンテーション結果に目覚ましい成果を上げている。
しかし、学習データや地理環境の変化は、拡張性のある建物セグメンテーションの課題を提起している。
本研究では,HTMask R-CNNと命名されたMask R-CNNに基づく新しいフレームワークを提案する。
このフレームワークは、正統派Mask R-CNNからの単一オブジェクトインスタンスセグメンテーションの結果を採用している。
さらに、トレーニングデータが不足している2オブジェクトのインスタンスセグメンテーションタスクの結果から推定される動的グレースケールしきい値に基づいて、農村の建物を新旧の建物に分類する。
このフレームワークは, 従来のMask R-CNNモデルよりもはるかに高い平均精度(mAP)を実現することができることがわかった。
トレーニングデータを増やして,新たなフレームワークの性能を検証したところ,トレーニングサンプルが制限された場合でも収束することがわかった。
このフレームワークの主な貢献は、従来の機械学習プラクティスよりも大幅に少ないトレーニングサンプルを使用することで、スケーラブルなセグメンテーションを可能にすることである。
これにより、中国の新旧農村の建物を地図化することができる。
関連論文リスト
- Informed deep hierarchical classification: a non-standard analysis inspired approach [0.0]
出力層の前に配置された特定のプロジェクション演算子を備えた多出力ディープニューラルネットワークで構成されている。
このようなアーキテクチャの設計は、LH-DNN(Lexicographic Hybrid Deep Neural Network)と呼ばれ、異なる研究分野と非常に離れた研究分野のツールを組み合わせることで実現されている。
アプローチの有効性を評価するために、階層的な分類タスクに適した畳み込みニューラルネットワークであるB-CNNと比較する。
論文 参考訳(メタデータ) (2024-09-25T14:12:50Z) - Model Parallel Training and Transfer Learning for Convolutional Neural Networks by Domain Decomposition [0.0]
ディープ畳み込みニューラルネットワーク(CNN)は、幅広い画像処理アプリケーションで非常に成功したことが示されている。
モデルパラメータの増大と大量のトレーニングデータの増加により、複雑なCNNを効率的に訓練するための並列化戦略が必要である。
論文 参考訳(メタデータ) (2024-08-26T17:35:01Z) - Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - Zero-Shot Refinement of Buildings' Segmentation Models using SAM [6.110856077714895]
本稿では,既存モデルの一般化損失に対処するために基礎モデルを適用する新しいアプローチを提案する。
いくつかのモデルの中で、私たちはSegment Anything Model(SAM)に焦点を当てています。
SAMは認識機能を提供しないので、ローカライズされたオブジェクトの分類とタグ付けに失敗する。
この新しいアプローチはSAMを認識能力で強化する。
論文 参考訳(メタデータ) (2023-10-03T07:19:59Z) - Refine and Represent: Region-to-Object Representation Learning [55.70715883351945]
本稿では、領域ベースとオブジェクト中心の事前学習を統一する領域対オブジェクト表現学習(R2O)を提案する。
R2Oは、エンコーダを訓練して、領域ベースのセグメントをオブジェクト中心のマスクに動的に洗練する。
ImageNetで事前トレーニングを行った後、R2Oモデルは教師なしオブジェクトセグメンテーションにおける既存の最先端技術を上回ることができる。
論文 参考訳(メタデータ) (2022-08-25T01:44:28Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Context Decoupling Augmentation for Weakly Supervised Semantic
Segmentation [53.49821324597837]
微調整されたセマンティックセグメンテーションは、近年深く研究されている困難な問題です。
本稿では、オブジェクトが現れる固有のコンテキストを変更する Context Decoupling Augmentation (CDA) メソッドを紹介します。
提案手法の有効性を検証するため, PASCAL VOC 2012データセットにいくつかの代替ネットワークアーキテクチャを用いた広範な実験を行い, CDAが様々なWSSS手法を新たな最先端技術に拡張できることを実証した。
論文 参考訳(メタデータ) (2021-03-02T15:05:09Z) - Weakly Supervised Instance Segmentation by Deep Community Learning [39.18749732409763]
複数のタスクによる深層コミュニティ学習に基づく弱教師付きインスタンスセグメンテーションアルゴリズムを提案する。
我々は、統合されたディープニューラルネットワークアーキテクチャを設計することでこの問題に対処する。
提案アルゴリズムは、弱教師付き設定における最先端性能を実現する。
論文 参考訳(メタデータ) (2020-01-30T08:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。