論文の概要: Self-supervised Contrastive Learning for Cross-domain Hyperspectral
Image Representation
- arxiv url: http://arxiv.org/abs/2202.03968v1
- Date: Tue, 8 Feb 2022 16:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 17:22:56.118618
- Title: Self-supervised Contrastive Learning for Cross-domain Hyperspectral
Image Representation
- Title(参考訳): クロスドメインハイパースペクトル画像表現のための自己教師ありコントラスト学習
- Authors: Hyungtae Lee and Heesung Kwon
- Abstract要約: 本稿では,アノテートが本質的に困難であるハイパースペクトル画像に適した自己教師型学習フレームワークを提案する。
提案するフレームワークアーキテクチャは、クロスドメインCNNを利用して、異なるハイパースペクトル画像から表現を学習する。
実験結果は、スクラッチや他の移動学習法から学習したモデルに対して、提案した自己教師型表現の利点を示す。
- 参考スコア(独自算出の注目度): 26.610588734000316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, self-supervised learning has attracted attention due to its
remarkable ability to acquire meaningful representations for classification
tasks without using semantic labels. This paper introduces a self-supervised
learning framework suitable for hyperspectral images that are inherently
challenging to annotate. The proposed framework architecture leverages
cross-domain CNN, allowing for learning representations from different
hyperspectral images with varying spectral characteristics and no pixel-level
annotation. In the framework, cross-domain representations are learned via
contrastive learning where neighboring spectral vectors in the same image are
clustered together in a common representation space encompassing multiple
hyperspectral images. In contrast, spectral vectors in different hyperspectral
images are separated into distinct clusters in the space. To verify that the
learned representation through contrastive learning is effectively transferred
into a downstream task, we perform a classification task on hyperspectral
images. The experimental results demonstrate the advantage of the proposed
self-supervised representation over models trained from scratch or other
transfer learning methods.
- Abstract(参考訳): 近年,セマンティックラベルを使わずに意味のある分類課題の表現を習得する能力によって,自己指導型学習が注目されている。
本稿では,本質的に注釈付けが難しいハイパースペクトル画像に適した自己教師付き学習フレームワークを提案する。
提案するフレームワークアーキテクチャは、クロスドメインCNNを利用して、スペクトル特性の異なる様々なハイパースペクトル画像から表現を学習し、画素レベルのアノテーションがない。
このフレームワークでは、同じ画像内の隣接するスペクトルベクトルが複数の超スペクトル画像を包含する共通表現空間に集束されるコントラスト学習によって、クロスドメイン表現が学習される。
対照的に、異なるハイパースペクトル画像のスペクトルベクトルは、空間内の異なるクラスタに分割される。
コントラスト学習による学習表現を下流課題に効果的に転送することを確認するため,ハイパースペクトル画像の分類タスクを行う。
実験の結果,スクラッチや他のトランスファー学習法から学習したモデルに対して,提案する自己教師あり表現の利点が示された。
関連論文リスト
- Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Cross-View-Prediction: Exploring Contrastive Feature for Hyperspectral
Image Classification [9.131465469247608]
本稿では,ハイパースペクトル画像分類のための自己教師付き特徴学習手法を提案する。
本手法は,クロス表現学習手法を用いて,生のハイパースペクトル画像の2つの異なるビューを構築することを試みる。
そして、コントラスト学習法により、生成したビューに対して意味論的に一貫した表現を学習する。
論文 参考訳(メタデータ) (2022-03-14T11:07:33Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Dense Semantic Contrast for Self-Supervised Visual Representation
Learning [12.636783522731392]
意味圏決定境界を密度の高いレベルでモデル化するためのDense Semantic Contrast(DSC)を提案する。
本稿では,多粒度表現学習のためのクロスイメージ・セマンティック・コントラッシブ・ラーニング・フレームワークを提案する。
実験結果から,DSCモデルは下流の高密度予測タスクに転送する場合に,最先端の手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:04:05Z) - Spatially Consistent Representation Learning [12.120041613482558]
本研究では,空間的に一貫した表現学習アルゴリズム(SCRL)を提案する。
ランダムに切り抜かれた局所領域のコヒーレントな空間表現を作ろうとする新しい自己教師付き目的を考案する。
ベンチマークデータセットを用いた下流のローカライゼーションタスクでは、提案したSCRLは大幅な性能改善を示す。
論文 参考訳(メタデータ) (2021-03-10T15:23:45Z) - Learning to Compose Hypercolumns for Visual Correspondence [57.93635236871264]
本稿では,画像に条件付けされた関連レイヤを活用することで,動的に効率的な特徴を構成する視覚対応手法を提案する。
提案手法はダイナミックハイパーピクセルフロー(Dynamic Hyperpixel Flow)と呼ばれ,深層畳み込みニューラルネットワークから少数の関連層を選択することにより,高速にハイパーカラム機能を構成することを学習する。
論文 参考訳(メタデータ) (2020-07-21T04:03:22Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Learning Representations by Predicting Bags of Visual Words [55.332200948110895]
自己教師付き表現学習ターゲットは、ラベルなしデータから畳み込みに基づく画像表現を学習する。
この分野におけるNLP手法の成功に触発された本研究では,空間的に高密度な画像記述に基づく自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T16:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。