論文の概要: Self-Supervised Material and Texture Representation Learning for Remote
Sensing Tasks
- arxiv url: http://arxiv.org/abs/2112.01715v1
- Date: Fri, 3 Dec 2021 04:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 15:01:39.168890
- Title: Self-Supervised Material and Texture Representation Learning for Remote
Sensing Tasks
- Title(参考訳): リモートセンシング作業のための自己監督材料とテクスチャ表現学習
- Authors: Peri Akiva, Matthew Purri, Matthew Leotta
- Abstract要約: 我々は、MATTER(MATerial and Texture Representation Learning)という、素材とテクスチャに基づくセルフスーパービジョン手法を提案する。
MATerial and Texture Representation Learningは、古典的な素材やテクスチャの手法にインスパイアされている。
我々の自己超越事前学習法は、教師なし、微調整のセットアップで最大24.22%と6.33%の性能向上を可能にする。
- 参考スコア(独自算出の注目度): 5.5531367234797555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning aims to learn image feature representations without
the usage of manually annotated labels. It is often used as a precursor step to
obtain useful initial network weights which contribute to faster convergence
and superior performance of downstream tasks. While self-supervision allows one
to reduce the domain gap between supervised and unsupervised learning without
the usage of labels, the self-supervised objective still requires a strong
inductive bias to downstream tasks for effective transfer learning. In this
work, we present our material and texture based self-supervision method named
MATTER (MATerial and TExture Representation Learning), which is inspired by
classical material and texture methods. Material and texture can effectively
describe any surface, including its tactile properties, color, and specularity.
By extension, effective representation of material and texture can describe
other semantic classes strongly associated with said material and texture.
MATTER leverages multi-temporal, spatially aligned remote sensing imagery over
unchanged regions to learn invariance to illumination and viewing angle as a
mechanism to achieve consistency of material and texture representation. We
show that our self-supervision pre-training method allows for up to 24.22% and
6.33% performance increase in unsupervised and fine-tuned setups, and up to 76%
faster convergence on change detection, land cover classification, and semantic
segmentation tasks.
- Abstract(参考訳): 自己教師付き学習は手動で注釈付きラベルを使わずに画像特徴表現を学習することを目的としている。
これはしばしば、下流タスクのより高速な収束と優れた性能に寄与する有用な初期ネットワーク重みを得るための前駆的なステップとして使われる。
自己監督はラベルを使わずに教師なし学習と教師なし学習のドメインギャップを減らせるが、効果的な伝達学習のためには、下流のタスクに強い帰納的バイアスを必要とする。
本研究では,従来の素材やテクスチャの手法にヒントを得た,MATTER(MATerial and TExture Representation Learning)という素材とテクスチャをベースとしたセルフスーパービジョン手法を提案する。
材料とテクスチャは、その触覚特性、色、特異性を含む任意の表面を効果的に記述することができる。
拡張により、素材とテクスチャの効果的な表現は、その素材とテクスチャに強く関連する他の意味クラスを記述できる。
MATTERは、変化しない領域にわたって時間的、空間的に整合したリモートセンシング画像を活用し、照明と視角の不変性を学習し、材料とテクスチャ表現の整合性を達成するメカニズムとして利用する。
本手法では, 教師なし, 微調整のセットアップにおいて最大24.22%および6.33%の性能向上が可能であり, 変更検出, 土地被覆分類, セマンティックセグメンテーションタスクにおいて最大76%の高速化が可能である。
関連論文リスト
- TIPS: Text-Image Pretraining with Spatial Awareness [13.38247732379754]
自己教師付き画像のみの事前訓練は、多くの視覚的応用にとって依然としてゴートな方法である。
本稿では,高密度かつ大域的な視覚タスクに有効な汎用画像テキストモデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T21:05:04Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - Vectorization and Rasterization: Self-Supervised Learning for Sketch and
Handwriting [168.91748514706995]
自己監督型機能学習のための2つの新しいクロスモーダル翻訳プリテキストタスクを提案する:ベクトル化とラスタリゼーション。
当社の学習したエンコーダモジュールは、手書きデータを分析するために、ベースとベクターの両方のダウンストリームアプローチに役立ちます。
論文 参考訳(メタデータ) (2021-03-25T09:47:18Z) - Can Semantic Labels Assist Self-Supervised Visual Representation
Learning? [194.1681088693248]
近隣環境におけるコントラスト調整(SCAN)という新しいアルゴリズムを提案する。
一連のダウンストリームタスクにおいて、SCANは従来の完全教師付きおよび自己教師付きメソッドよりも優れたパフォーマンスを達成する。
本研究は, セマンティックラベルが自己指導的手法の補助に有用であることを明らかにする。
論文 参考訳(メタデータ) (2020-11-17T13:25:00Z) - Learning Visual Representations for Transfer Learning by Suppressing
Texture [38.901410057407766]
自己教師付き学習では、低レベルのキューとしてのテクスチャは、ネットワークがより高いレベルの表現を学習することを防ぐショートカットを提供する。
本稿では,異方性拡散に基づく古典的手法を用いて,テクスチャを抑圧した画像を用いた強化訓練を提案する。
提案手法は,物体検出と画像分類における最先端の成果を実証的に示す。
論文 参考訳(メタデータ) (2020-11-03T18:27:03Z) - Semi-supervised Learning with a Teacher-student Network for Generalized
Attribute Prediction [7.462336024223667]
本稿では,視覚特性予測問題を解くための半教師付き学習について述べる。
提案手法は,ファッション属性予測のための様々なベンチマーク上での競合性能を実現する。
論文 参考訳(メタデータ) (2020-07-14T02:06:24Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z) - Semantically-Guided Representation Learning for Self-Supervised
Monocular Depth [40.49380547487908]
本稿では,自己教師付き表現学習を指導するために,事前訓練型セマンティックセマンティック・セマンティクス・ネットワークを利用した新しいアーキテクチャを提案する。
本手法は,全画素,細粒度細部,意味カテゴリーごとの自己教師型単眼深度予測のための技術の現状を改善した。
論文 参考訳(メタデータ) (2020-02-27T18:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。