論文の概要: Self-supervised Pre-training for Mapping of Archaeological Stone Wall in Historic Landscapes Using High-Resolution DEM Derivatives
- arxiv url: http://arxiv.org/abs/2510.17644v1
- Date: Mon, 20 Oct 2025 15:23:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.500389
- Title: Self-supervised Pre-training for Mapping of Archaeological Stone Wall in Historic Landscapes Using High-Resolution DEM Derivatives
- Title(参考訳): 高分解能DEM誘導体を用いた歴史景観の考古学的石壁地図作成のための自己指導型事前学習
- Authors: Zexian Huang, Mashnoon Islam, Brian Armstrong, Kourosh Khoshelham, Martin Tomko,
- Abstract要約: 豪州の生態系保全と山火事管理には,これらの構造物のマッピングが不可欠である。
ディープラーニングベースのセグメンテーションはスケーラブルなソリューションを提供するが、2つの大きな課題が続いている。
本研究では,高分解能LiDAR誘導デジタル標高モデルを用いて,乾燥岩壁の自動マッピングを行うフレームワークであるDINO-CVを提案する。
- 参考スコア(独自算出の注目度): 4.861810299694771
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dry-stone walls hold significant heritage and environmental value. Mapping these structures is essential for ecosystem preservation and wildfire management in Australia. Yet, many walls remain unidentified due to their inaccessibility and the high cost of manual mapping. Deep learning-based segmentation offers a scalable solution, but two major challenges persist: (1) visual occlusion of low-lying walls by dense vegetation, and (2) limited labeled data for supervised training. We propose DINO-CV, a segmentation framework for automatic mapping of low-lying dry-stone walls using high-resolution Airborne LiDAR-derived digital elevation models (DEMs). DEMs overcome visual occlusion by capturing terrain structures hidden beneath vegetation, enabling analysis of structural rather than spectral cues. DINO-CV introduces a self-supervised cross-view pre-training strategy based on knowledge distillation to mitigate data scarcity. It learns invariant visual and geometric representations across multiple DEM derivatives, supporting various vision backbones including ResNet, Wide ResNet, and Vision Transformers. Applied to the UNESCO World Heritage cultural landscape of Budj Bim, Victoria, the method identifies one of Australia's densest collections of colonial dry-stone walls beyond Indigenous heritage contexts. DINO-CV achieves a mean Intersection over Union (mIoU) of 68.6% on test areas and maintains 63.8% mIoU when fine-tuned with only 10% labeled data. These results demonstrate the potential of self-supervised learning on high-resolution DEM derivatives for automated dry-stone wall mapping in vegetated and heritage-rich environments with scarce annotations.
- Abstract(参考訳): 乾岩の壁は重要な遺産と環境価値を持っている。
これらの構造物のマッピングはオーストラリアにおける生態系の保全と山火事管理に不可欠である。
しかし、多くの壁は、そのアクセシビリティと手動マッピングの高コストのため、未確認のままである。
深層学習に基づくセグメンテーションは、スケーラブルなソリューションを提供するが、(1)高密度植生による低層壁の視覚的閉塞、(2)教師付きトレーニングのための限定ラベル付きデータである。
本研究では,高分解能LiDAR誘導デジタル標高モデル(DEM)を用いた低層乾燥岩壁の自動マッピングのためのセグメンテーションフレームワークであるDINO-CVを提案する。
DEMは、植生の下に隠された地形構造を捉えることで、視覚的閉塞を克服し、スペクトルの手がかりではなく構造の分析を可能にした。
DINO-CVは、知識蒸留に基づく自己監督型クロスビュー事前学習戦略を導入し、データの不足を軽減する。
複数のDEM誘導体にまたがる不変の視覚的および幾何学的表現を学習し、ResNet、Wide ResNet、Vision Transformersなど様々なビジョンバックボーンをサポートする。
ビクトリア州ブジ・ビムのユネスコ世界遺産の文化的景観に応用され、オーストラリアで最も密集した乾燥岩壁の1つである。
DINO-CVはテストエリアで平均68.6%の連邦間(mIoU)を達成し、10%のラベル付きデータを微調整すると63.8%のmIoUを維持できる。
これらの結果から, 植生・遺産に富む環境において, 高分解能DEM誘導体を用いた自己教師学習の可能性が示された。
関連論文リスト
- Habitat Classification from Ground-Level Imagery Using Deep Neural Networks [1.3408365072149797]
本研究では、現在最先端の深層ニューラルネットワークアーキテクチャを地上レベルの生息地画像に適用する。
我々は、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)の2つのモデルのファミリーを評価する。
我々の結果は、ViTsがキー分類基準の最先端CNNベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-07-05T12:07:13Z) - Supervised and self-supervised land-cover segmentation & classification of the Biesbosch wetlands [0.0]
本研究では,教師付き学習と自己指導型学習を併用した湿地土地被覆区分と分類手法を提案する。
オランダの6つの湿地帯におけるSentinel-2画像のスクラッチからU-Netモデルをトレーニングし、ベースラインモデルの精度は85.26%に達した。
ラベル付きデータの可用性の制限に対処して、オートエンコーダでSSLを事前トレーニングすることで、特に高解像度画像において精度が向上することを示した。
論文 参考訳(メタデータ) (2025-05-27T14:42:49Z) - Data Augmentation and Resolution Enhancement using GANs and Diffusion Models for Tree Segmentation [49.13393683126712]
都市森林は、環境の質を高め、都市における生物多様性を支援する上で重要な役割を担っている。
複雑な地形と異なる衛星センサーやUAV飛行高度による画像解像度の変化により、正確に木を検知することは困難である。
低解像度空中画像の品質を高めるため,GANと拡散モデルとドメイン適応を統合した新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2025-05-21T03:57:10Z) - Very High-Resolution Forest Mapping with TanDEM-X InSAR Data and Self-Supervised Learning [3.5188848736316407]
我々はTandDEM-Xミッションの高分解能を利用して森林を6mで地図化する。
このような高解像度な参照データセットの拡張に対処するため、自己教師あり学習技術について検討する。
ペンシルバニア州上空1mの森林・非森林基準マップでは、異なるトレーニングアプローチを比較することができる。
このテスト領域上で最高のパフォーマンスのアプローチを選択し、アマゾン熱帯雨林の実際の森林マッピングシナリオに適用する。
論文 参考訳(メタデータ) (2025-05-06T08:54:28Z) - Learning without Exact Guidance: Updating Large-scale High-resolution Land Cover Maps from Low-resolution Historical Labels [4.833320222969612]
大規模な高解像度(HR)の土地被覆マッピングは、地球の表面を調査し、人類が直面する多くの課題を解決するための重要な課題である。
本研究では,大規模人事地被覆地図作成のための効率的かつ弱教師付きフレームワーク(Paraformer)を提案する。
論文 参考訳(メタデータ) (2024-03-05T08:02:00Z) - Recognize Any Regions [55.76437190434433]
RegionSpotは、ローカライゼーション基盤モデルから位置認識ローカライゼーション知識と、ViLモデルからのセマンティック情報を統合する。
オープンワールドオブジェクト認識の実験では、私たちのRereaSpotは、以前の代替よりも大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-11-02T16:31:49Z) - DETR Doesn't Need Multi-Scale or Locality Design [69.56292005230185]
本稿では,"プレーン"特性を維持できる改良型DETR検出器を提案する。
特定の局所性制約を伴わずに、単一スケールの機能マップとグローバルなクロスアテンション計算を使用する。
マルチスケールな特徴マップと局所性制約の欠如を補うために,2つの単純な技術が平易な設計において驚くほど効果的であることを示す。
論文 参考訳(メタデータ) (2023-08-03T17:59:04Z) - Agave crop segmentation and maturity classification with deep learning
data-centric strategies using very high-resolution satellite imagery [101.18253437732933]
超高解像度衛星画像を用いたAgave tequilana Weber azul crop segmentation and mature classificationを提案する。
実世界の深層学習問題を,作物の選別という非常に具体的な文脈で解決する。
結果として得られた正確なモデルにより、大規模地域で生産予測を行うことができる。
論文 参考訳(メタデータ) (2023-03-21T03:15:29Z) - Flood Extent Mapping based on High Resolution Aerial Imagery and DEM: A
Hidden Markov Tree Approach [10.72081512622396]
本稿では,高分解能空中画像のケーススタディにより,提案した地理的隠れマルコフ木モデルを評価する。
2016年のハリケーン・マシューの洪水で、ノースカロライナ州グリムズランド市とキンストン市の近くで、3つのシーンが植林された洪水原で選ばれた。
その結果,提案した隠れマルコフ木モデルは,機械学習アルゴリズムのいくつかの状態よりも優れていた。
論文 参考訳(メタデータ) (2020-08-25T18:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。