論文の概要: GeoCLR: Georeference Contrastive Learning for Efficient Seafloor Image
Interpretation
- arxiv url: http://arxiv.org/abs/2108.06421v1
- Date: Fri, 13 Aug 2021 22:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:16:36.233685
- Title: GeoCLR: Georeference Contrastive Learning for Efficient Seafloor Image
Interpretation
- Title(参考訳): GeoCLR: 効率的な海底画像解釈のためのジオレファレンスコントラスト学習
- Authors: Takaki Yamada, Adam Pr\"ugel-Bennett, Stefan B. Williams, Oscar
Pizarro, Blair Thornton
- Abstract要約: 本稿では,CNNの効率的な学習のためのジオリフレクション・コントラシティブ・ラーニング・オブ・ビジュアル・リ表現(GeoCLR)について述べる。
GeoCLRは、近くで撮影された画像を使って類似した画像ペアを生成し、これらを遠く離れた画像ペアと対比する。
この方法の主な利点は、CNN訓練に人的入力を必要としない自己教師型であることである。
我々はGeoCLRによって生成された潜在表現がどのように人間のアノテーションの取り組みを効率的に導くことができるかを実証する。
- 参考スコア(独自算出の注目度): 8.837172743444249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes Georeference Contrastive Learning of visual
Representation (GeoCLR) for efficient training of deep-learning Convolutional
Neural Networks (CNNs). The method leverages georeference information by
generating a similar image pair using images taken of nearby locations, and
contrasting these with an image pair that is far apart. The underlying
assumption is that images gathered within a close distance are more likely to
have similar visual appearance, where this can be reasonably satisfied in
seafloor robotic imaging applications where image footprints are limited to
edge lengths of a few metres and are taken so that they overlap along a
vehicle's trajectory, whereas seafloor substrates and habitats have patch sizes
that are far larger. A key advantage of this method is that it is
self-supervised and does not require any human input for CNN training. The
method is computationally efficient, where results can be generated between
dives during multi-day AUV missions using computational resources that would be
accessible during most oceanic field trials. We apply GeoCLR to habitat
classification on a dataset that consists of ~86k images gathered using an
Autonomous Underwater Vehicle (AUV). We demonstrate how the latent
representations generated by GeoCLR can be used to efficiently guide human
annotation efforts, where the semi-supervised framework improves classification
accuracy by an average of 11.8 % compared to state-of-the-art transfer learning
using the same CNN and equivalent number of human annotations for training.
- Abstract(参考訳): 本稿では,ディープラーニング畳み込みニューラルネットワーク(cnns)の効率的な学習のためのジオリファレンスコントラスト学習(geoclr)について述べる。
本手法では,近接する場所の画像を用いて類似した画像対を生成し,これらを遠く離れた画像対と対比することにより,ジオリファレンス情報を活用する。
基礎となる前提は、近距離で収集された画像が類似した視覚的外観を持つ可能性が高いことであり、これは海底のロボット画像アプリケーションにおいて合理的に満足できるため、画像のフットプリントは数メートルの縁の長さに制限され、車両の軌道に沿って重なり合うように取られる。
この方法の主な利点は、CNN訓練に人的入力を必要としない自己教師型であることである。
この方法は計算的に効率的であり、複数日のAUVミッションにおいて、ほとんどの海洋実験でアクセス可能な計算資源を使用してダイブ間で結果を生成することができる。
我々は,AUV(Autonomous Underwater Vehicle)を用いて収集した約86kの画像からなるデータセット上で,GeoCLRを生息地分類に適用した。
そこで本研究では,GeoCLRが生成した潜伏表現を用いて,人間のアノテーションの取り組みを効率的にガイドする方法を実証する。この半教師付きフレームワークは,同じCNNと同等数の人間のアノテーションを用いた最先端の伝達学習と比較して,平均11.8 %の分類精度を向上する。
関連論文リスト
- Evaluation of Deep Learning Semantic Segmentation for Land Cover Mapping on Multispectral, Hyperspectral and High Spatial Aerial Imagery [0.0]
気候変動の台頭で、土地被覆マッピングは環境モニタリングにおいて緊急に必要となってきた。
本研究では,Unet,Linknet,FPN,PSPnetなどのセマンティックセグメンテーション手法を用いて植生や水などの分類を行った。
LinkNetモデルは、すべてのデータセットで0.92の精度でIoUで取得した。
論文 参考訳(メタデータ) (2024-06-20T11:40:12Z) - Annotation Cost-Efficient Active Learning for Deep Metric Learning Driven Remote Sensing Image Retrieval [3.2109665109975696]
ANNEALは、類似した、異種のイメージペアで構成された、小さくて情報的なトレーニングセットを作成することを目的としている。
不確実性と多様性の基準を組み合わせることにより、画像対の情報性を評価する。
このアノテート方式は、ランド・ユース・ランド・カバー・クラスラベルによるアノテート画像と比較して、アノテーションコストを著しく削減する。
論文 参考訳(メタデータ) (2024-06-14T15:08:04Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Enhancing Self-Supervised Learning for Remote Sensing with Elevation
Data: A Case Study with Scarce And High Level Semantic Labels [1.534667887016089]
本研究は、地球観測下流タスクに適用された事前学習モデルに対する、教師なしと教師なしのハイブリッド学習手法を提案する。
我々は、事前訓練モデルに対する対照的なアプローチと画素単位の回帰事前テキストタスクを組み合わせることで、粗い標高マップを予測する。
論文 参考訳(メタデータ) (2023-04-13T23:01:11Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - Learning Cross-Scale Visual Representations for Real-Time Image
Geo-Localization [21.375640354558044]
局所センサに基づく状態推定手法は、誤差が蓄積されるにつれて長距離ミッションがドリフトする傾向にある。
クロススケールなデータセットと、クロスモダリティソースから追加データを生成する手法を紹介する。
本稿では,監督なしに大規模視覚表現を学習するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-09T08:08:54Z) - Learning Hybrid Representations for Automatic 3D Vessel Centerline
Extraction [57.74609918453932]
3次元医用画像からの血管の自動抽出は血管疾患の診断に不可欠である。
既存の方法では、3次元画像からそのような細い管状構造を分割する際に、抽出された容器の不連続に悩まされることがある。
抽出された船舶の連続性を維持するためには、地球的幾何学を考慮に入れる必要があると論じる。
この課題を解決するためのハイブリッド表現学習手法を提案します。
論文 参考訳(メタデータ) (2020-12-14T05:22:49Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Geography-Aware Self-Supervised Learning [79.4009241781968]
異なる特徴により、標準ベンチマークにおけるコントラスト学習と教師あり学習の間には、非自明なギャップが持続していることが示される。
本稿では,リモートセンシングデータの空間的整合性を利用した新しいトレーニング手法を提案する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションにおけるコントラスト学習と教師あり学習のギャップを埋めるものである。
論文 参考訳(メタデータ) (2020-11-19T17:29:13Z) - DeepEMD: Differentiable Earth Mover's Distance for Few-Shot Learning [122.51237307910878]
我々は,画像領域間の最適なマッチングの新しい視点から,少数ショット画像分類法を開発した。
我々は、高密度画像表現間の構造距離を計算するために、Earth Mover's Distance (EMD) を用いている。
定式化において重要な要素の重みを生成するために,我々は相互参照機構を設計する。
論文 参考訳(メタデータ) (2020-03-15T08:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。