論文の概要: Fine-Grained Building Function Recognition from Street-View Images via Geometry-Aware Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2408.09460v3
- Date: Mon, 9 Sep 2024 03:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 01:05:18.082091
- Title: Fine-Grained Building Function Recognition from Street-View Images via Geometry-Aware Semi-Supervised Learning
- Title(参考訳): 幾何学的半教師付き学習によるストリートビュー画像からの細粒度建物機能認識
- Authors: Weijia Li, Jinhua Yu, Dairong Chen, Yi Lin, Runmin Dong, Xiang Zhang, Conghui He, Haohuan Fu,
- Abstract要約: 細粒度建物機能認識のための幾何対応半教師付きフレームワークを提案する。
半教師あり学習における擬似ラベルの精度を高めるために,マルチソースデータ間の幾何学的関係を利用する。
提案手法は, 建築物のきめ細かい機能認識において, 優れた性能を示す。
- 参考スコア(独自算出の注目度): 18.432786227782803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a geometry-aware semi-supervised framework for fine-grained building function recognition, utilizing geometric relationships among multi-source data to enhance pseudo-label accuracy in semi-supervised learning, broadening its applicability to various building function categorization systems. Firstly, we design an online semi-supervised pre-training stage, which facilitates the precise acquisition of building facade location information in street-view images. In the second stage, we propose a geometry-aware coarse annotation generation module. This module effectively combines GIS data and street-view data based on the geometric relationships, improving the accuracy of pseudo annotations. In the third stage, we combine the newly generated coarse annotations with the existing labeled dataset to achieve fine-grained functional recognition of buildings across multiple cities at a large scale. Extensive experiments demonstrate that our proposed framework exhibits superior performance in fine-grained functional recognition of buildings. Within the same categorization system, it achieves improvements of 7.6\% and 4.8\% compared to fully-supervised methods and state-of-the-art semi-supervised methods, respectively. Additionally, our method also performs well in cross-city scenarios, i.e., extending the model trained on OmniCity (New York) to new cities (i.e., Los Angeles and Boston) with different building function categorization systems. This study offers a new solution for large-scale multi-city applications with minimal annotation requirements, facilitating more efficient data updates and resource allocation in urban management.
- Abstract(参考訳): 本研究では,多ソースデータ間の幾何的関係を利用して,半教師付き学習における擬似ラベルの精度を高め,各種ビルディング関数分類システムへの適用性を拡大する,精密なビルディング関数認識のための幾何認識型半教師付きフレームワークを提案する。
まず,ストリートビュー画像におけるファサード情報の正確な取得を容易にするオンライン半教師付き事前学習ステージを設計する。
第2段階では,幾何対応の粗いアノテーション生成モジュールを提案する。
このモジュールは、幾何学的関係に基づくGISデータとストリートビューデータを効果的に組み合わせ、擬似アノテーションの精度を向上させる。
第3段階では、新たに生成された粗いアノテーションを既存のラベル付きデータセットと組み合わせ、大規模に複数の都市にまたがる建物のきめ細かい機能認識を実現する。
大規模実験により,提案手法は建物の微細な機能認識において優れた性能を示すことが示された。
同じ分類体系内では、完全に監督された手法と最先端の半監督された手法と比較して、7.6\%と4.8\%の改善が達成されている。
さらに,OmniCity(ニューヨーク)で訓練されたモデルを,異なるビル機能分類システムを備えた新都市(ロサンゼルス,ボストン)に拡張するなど,都市横断シナリオでも良好に機能する。
本研究は, より効率的なデータ更新と資源配分を容易にするため, 最小限のアノテーションを必要とする大規模マルチシティアプリケーションに対して, 新たなソリューションを提供する。
関連論文リスト
- Multi-Unit Floor Plan Recognition and Reconstruction Using Improved Semantic Segmentation of Raster-Wise Floor Plans [1.0436971860292366]
MDA-Unet と MACU-Net アーキテクチャに基づく2つの新しい画素分割手法を提案する。
提案手法は他の2つの最先端技術とベンチマークデータセットと比較した。
一般的なCubeCasaベンチマークデータセットでは,5つのクラスに対して平均F1スコアが0.86に達している。
論文 参考訳(メタデータ) (2024-08-02T18:36:45Z) - IsUMap: Manifold Learning and Data Visualization leveraging Vietoris-Rips filtrations [0.08796261172196743]
局所的に歪んだ距離空間に対する距離表現の体系的かつ詳細な構成を示す。
提案手法は,非一様データ分布と複雑な局所的ジオメトリの調整により,既存の手法の制約に対処する。
論文 参考訳(メタデータ) (2024-07-25T07:46:30Z) - Semi-supervised Learning from Street-View Images and OpenStreetMap for
Automatic Building Height Estimation [59.6553058160943]
本稿では,Mapillary SVIとOpenStreetMapのデータから建物の高さを自動的に推定する半教師付き学習(SSL)手法を提案する。
提案手法は, 平均絶対誤差(MAE)が約2.1mである建物の高さを推定する上で, 明らかな性能向上につながる。
予備結果は,低コストなVGIデータに基づく提案手法のスケールアップに向けた今後の取り組みを期待し,動機づけるものである。
論文 参考訳(メタデータ) (2023-07-05T18:16:30Z) - Cross-view Geo-localization via Learning Disentangled Geometric Layout
Correspondence [11.823147814005411]
クロスビュージオローカライゼーションは、参照ジオタグ付き空中画像データベースとマッチングすることで、クエリーグラウンド画像の位置を推定することを目的としている。
最近の研究は、クロスビューなジオローカライゼーションベンチマークにおいて顕著な進歩を遂げている。
しかし、既存の手法は依然としてクロスエリアベンチマークのパフォーマンスの低下に悩まされている。
論文 参考訳(メタデータ) (2022-12-08T04:54:01Z) - Retrieval and Localization with Observation Constraints [12.010135672015704]
RLOCSと呼ばれる視覚的再局在化手法を提案する。
画像検索、意味整合性、幾何学的検証を組み合わせて正確な推定を行う。
本手法は, ローカライゼーションベンチマークにおいて多くの性能向上を実現している。
論文 参考訳(メタデータ) (2021-08-19T06:14:33Z) - FloorLevel-Net: Recognizing Floor-Level Lines with
Height-Attention-Guided Multi-task Learning [49.30194762653723]
本研究は, 教師付き深層学習手法を用いて, ストリートビュー画像中のフロアレベル線の位置を求める問題に対処する。
まず、新しいデータセットをコンパイルし、トレーニングサンプルを合成する新しいデータ拡張スキームを開発する。
次にFloorLevel-Netを設計する。FloorLevel-Netは、ファサードと暗黙のフロアレベルラインの明示的な特徴を関連付けるマルチタスク学習ネットワークである。
論文 参考訳(メタデータ) (2021-07-06T08:17:59Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。