論文の概要: Efficient Building Roof Type Classification: A Domain-Specific Self-Supervised Approach
- arxiv url: http://arxiv.org/abs/2503.22251v1
- Date: Fri, 28 Mar 2025 09:04:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:29:32.865363
- Title: Efficient Building Roof Type Classification: A Domain-Specific Self-Supervised Approach
- Title(参考訳): 効率的な屋根型分類:ドメイン特有な自己監督的アプローチ
- Authors: Guneet Mutreja, Ksenia Bittner,
- Abstract要約: 本稿では,建築屋根型分類における自己教師型学習の有効性について検討する。
本稿では,CBAM(Convolutional Block Attention Module)を組み込んだ新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.3020018305241337
- License:
- Abstract: Accurate classification of building roof types from aerial imagery is crucial for various remote sensing applications, including urban planning, disaster management, and infrastructure monitoring. However, this task is often hindered by the limited availability of labeled data for supervised learning approaches. To address this challenge, this paper investigates the effectiveness of self supervised learning with EfficientNet architectures, known for their computational efficiency, for building roof type classification. We propose a novel framework that incorporates a Convolutional Block Attention Module (CBAM) to enhance the feature extraction capabilities of EfficientNet. Furthermore, we explore the benefits of pretraining on a domain-specific dataset, the Aerial Image Dataset (AID), compared to ImageNet pretraining. Our experimental results demonstrate the superiority of our approach. Employing Simple Framework for Contrastive Learning of Visual Representations (SimCLR) with EfficientNet-B3 and CBAM achieves a 95.5% accuracy on our validation set, matching the performance of state-of-the-art transformer-based models while utilizing significantly fewer parameters. We also provide a comprehensive evaluation on two challenging test sets, demonstrating the generalization capability of our method. Notably, our findings highlight the effectiveness of domain-specific pretraining, consistently leading to higher accuracy compared to models pretrained on the generic ImageNet dataset. Our work establishes EfficientNet based self-supervised learning as a computationally efficient and highly effective approach for building roof type classification, particularly beneficial in scenarios with limited labeled data.
- Abstract(参考訳): 航空画像からの建築屋根の正確な分類は、都市計画、災害管理、インフラ監視など、様々なリモートセンシングアプリケーションに不可欠である。
しかし、このタスクは、教師付き学習アプローチのためのラベル付きデータの可用性の制限によって、しばしば妨げられる。
この課題に対処するために,本研究では,屋上型分類構築において,効率的なネットアーキテクチャを用いた自己教師型学習の有効性について検討する。
本稿では,CBAM(Convolutional Block Attention Module)を組み込んだ新しいフレームワークを提案する。
さらに,ドメイン固有のデータセットであるAerial Image Dataset(AID)の事前トレーニングの利点について,ImageNetの事前トレーニングと比較した。
我々の実験結果は、我々のアプローチの優位性を示している。
EfficientNet-B3とCBAMでSimCLR(Contrastive Learning of Visual Representations)を利用すると、バリデーションセット上で95.5%の精度が達成され、最先端のトランスフォーマーベースのモデルのパフォーマンスに適合すると同時に、パラメータを著しく少なくする。
また,本手法の一般化能力を実証し,2つの挑戦的テストセットについて総合的な評価を行った。
特に、ドメイン固有の事前トレーニングの有効性を強調し、一般的なImageNetデータセットで事前トレーニングされたモデルと比較して、一貫して精度を高めた。
本研究は,屋上型分類を構築する上で,効率的な自己教師型学習を,特にラベル付きデータに制限のあるシナリオにおいて有益である,計算的かつ高効率なアプローチとして確立する。
関連論文リスト
- Parameter-Efficient Active Learning for Foundational models [7.799711162530711]
基礎的な視覚変換器モデルは、多くの視覚タスクにおいて、驚くほどのショットパフォーマンスを示している。
本研究は,アクティブラーニング(AL)フレームワークにおけるパラメータ効率の良い微調整手法の適用に関する新たな研究である。
論文 参考訳(メタデータ) (2024-06-13T16:30:32Z) - VeCAF: Vision-language Collaborative Active Finetuning with Training Objective Awareness [56.87603097348203]
VeCAFはラベルと自然言語アノテーションを使用して、PVMの微調整のためのパラメトリックデータ選択を行う。
VeCAFは微調整の目的を取り入れて重要なデータポイントを選択し、PVMをより高速な収束に向けて効果的に導く。
ImageNetでは、VeCAFは最大3.3倍のトレーニングバッチを使用して、完全な微調整に比べて目標のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-01-15T17:28:37Z) - Terrain-Informed Self-Supervised Learning: Enhancing Building Footprint Extraction from LiDAR Data with Limited Annotations [1.3243401820948064]
フットプリントマップの構築は、広範な後処理なしで正確なフットプリント抽出を約束する。
ディープラーニング手法は、一般化とラベルの効率の面で課題に直面している。
リモートセンシングに適した地形認識型自己教師型学習を提案する。
論文 参考訳(メタデータ) (2023-11-02T12:34:23Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Unsupervised Domain-adaptive Hash for Networks [81.49184987430333]
ドメイン適応型ハッシュ学習はコンピュータビジョンコミュニティでかなりの成功を収めた。
UDAHと呼ばれるネットワークのための教師なしドメイン適応型ハッシュ学習手法を開発した。
論文 参考訳(メタデータ) (2021-08-20T12:09:38Z) - Self-supervised learning for joint SAR and multispectral land cover
classification [38.8529535887097]
マルチチャネルモデルの自己教師型トレーニングのためのフレームワークと特定のタスクを提案する。
提案手法は,土地被覆分類のラベルと相関する特徴の学習に有効であることを示す。
論文 参考訳(メタデータ) (2021-08-20T09:02:07Z) - Towards Unsupervised Sketch-based Image Retrieval [126.77787336692802]
本稿では,教師なし表現学習とスケッチ写真領域アライメントを同時に行う新しいフレームワークを提案する。
このフレームワークは,新しい教師なし設定では優れた性能を達成し,ゼロショット設定では最先端以上の性能を発揮する。
論文 参考訳(メタデータ) (2021-05-18T02:38:22Z) - Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection [86.0580214485104]
本稿では,オブジェクト検出のための汎用的で効率的な事前学習パラダイムであるMontage事前学習を提案する。
Montage事前トレーニングは、ターゲット検出データセットのみを必要とするが、広く採用されているImageNet事前トレーニングと比較して、計算リソースは1/4しかない。
モンタージュ事前学習の効率と有効性は、MS-COCOデータセットの広範な実験によって検証される。
論文 参考訳(メタデータ) (2020-04-25T16:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。