論文の概要: Supervising Remote Sensing Change Detection Models with 3D Surface
Semantics
- arxiv url: http://arxiv.org/abs/2202.13251v1
- Date: Sat, 26 Feb 2022 23:35:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 06:48:42.146129
- Title: Supervising Remote Sensing Change Detection Models with 3D Surface
Semantics
- Title(参考訳): 3次元サーフェスセマンティックによるリモートセンシング変化検出モデルの監視
- Authors: Isaac Corley, Peyman Najafirad
- Abstract要約: 光RGBと地上レベル(AGL)マップペアを用いた共同学習のためのコントラスト表面画像事前学習(CSIP)を提案する。
次に、これらの事前訓練されたモデルをいくつかの建物セグメンテーションおよび変更検出データセット上で評価し、実際に、下流アプリケーションに関連する特徴を抽出することを示す。
- 参考スコア(独自算出の注目度): 1.8782750537161614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Remote sensing change detection, identifying changes between scenes of the
same location, is an active area of research with a broad range of
applications. Recent advances in multimodal self-supervised pretraining have
resulted in state-of-the-art methods which surpass vision models trained solely
on optical imagery. In the remote sensing field, there is a wealth of
overlapping 2D and 3D modalities which can be exploited to supervise
representation learning in vision models. In this paper we propose Contrastive
Surface-Image Pretraining (CSIP) for joint learning using optical RGB and above
ground level (AGL) map pairs. We then evaluate these pretrained models on
several building segmentation and change detection datasets to show that our
method does, in fact, extract features relevant to downstream applications
where natural and artificial surface information is relevant.
- Abstract(参考訳): 同じ場所のシーン間の変化を識別するリモートセンシングによる変化検出は、幅広い応用の活発な研究領域である。
マルチモーダル自己監督型事前訓練の最近の進歩は、光学画像のみに訓練された視覚モデルを上回る最先端の手法をもたらした。
リモートセンシングの分野では,視覚モデルの表現学習を監督するために活用できる,重複する2次元と3次元のモダリティが豊富に存在する。
本稿では,光学RGBと地上レベル(AGL)マップペアを用いた共同学習のためのコントラスト曲面事前学習(CSIP)を提案する。
次に,いくつかの建物セグメントと変更検出データセット上でこれらの事前学習モデルを評価し,本手法が自然および人工表面情報に関連のある下流アプリケーションに関連する特徴を抽出していることを示す。
関連論文リスト
- UniMODE: Unified Monocular 3D Object Detection [76.77182583753051]
我々は,鳥眼視(BEV)検出パラダイムに基づく検出器を構築した。
本稿では,この課題に起因する収束不安定性に対応するために,不均一なBEVグリッド設計を提案する。
統一検出器UniMODEが導出され、挑戦的なOmni3Dデータセットの先行技術を上回る。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Generative Range Imaging for Learning Scene Priors of 3D LiDAR Data [3.9447103367861542]
本稿では,データレベルドメイン転送に適用可能なLiDARレンジ画像の生成モデルを提案する。
LiDAR測定がポイント・バイ・ポイント・レンジ・イメージングに基づくことから,暗黙的な画像表現に基づく生成対向ネットワークを訓練する。
本モデルの有効性と多様性を,ポイントベースおよびイメージベース・オブ・ザ・アーティファクト・ジェネレーティブ・モデルと比較した。
論文 参考訳(メタデータ) (2022-10-21T06:08:39Z) - SSMTL++: Revisiting Self-Supervised Multi-Task Learning for Video
Anomaly Detection [108.57862846523858]
自己教師型マルチタスク学習フレームワークを再考し、元の手法にいくつかのアップデートを提案する。
マルチヘッド・セルフアテンション・モジュールを導入することで3次元畳み込みバックボーンを近代化する。
モデルをさらに改良するために,セグメントマップの予測などの自己指導型学習タスクについて検討した。
論文 参考訳(メタデータ) (2022-07-16T19:25:41Z) - Unsupervised View-Invariant Human Posture Representation [2.6519061087638014]
本研究では、2次元画像からビュー不変な3次元ポーズ表現を抽出することを学ぶ新しい教師なしアプローチを提案する。
本モデルは,同時フレーム間の人間のポーズの内在的なビュー不変性を活用することで訓練される。
RGB画像と深度画像の非教師なしのクロスビュー動作分類精度の改善を示す。
論文 参考訳(メタデータ) (2021-09-17T19:23:31Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - 3D Object Detection on Point Clouds using Local Ground-aware and
Adaptive Representation of scenes' surface [1.9336815376402714]
新規で適応的な地上認識と費用対効果の高い3次元物体検出パイプラインを提案する。
2段Lidar物体検出パイプラインにおける最先端3次元物体検出性能について提案する。
論文 参考訳(メタデータ) (2020-02-02T05:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。