論文の概要: K-textures, a self supervised hard clustering deep learning algorithm
for satellite images segmentation
- arxiv url: http://arxiv.org/abs/2205.08671v1
- Date: Wed, 18 May 2022 00:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 21:46:41.211509
- Title: K-textures, a self supervised hard clustering deep learning algorithm
for satellite images segmentation
- Title(参考訳): 衛星画像セグメンテーションのための自己教師付きハードクラスタリングディープラーニングアルゴリズムK-textures
- Authors: Fabien H. Wagner, Ricardo Dalagnol, Alber H. S\'anchez, Mayumi C.M.
Hirye, Samuel Favrichon, Jake H. Lee, Steffen Mauceri, Yan Yang and Sassan
Saatchi
- Abstract要約: そこで本研究では4バンド画像(RGB-NIR)の自己教師付きセグメンテーションを行うk-texturesアルゴリズムを提案する。
我々のアルゴリズムは、畳み込みニューラルネットワーク(CNN)と勾配降下を用いた離散探索が実現可能であることを示す。
本手法は,衛星画像セグメンテーションのためのトレーニングサンプルの作成を容易にすることを目的としている。
- 参考スコア(独自算出の注目度): 2.266136669657824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning self supervised algorithms that can segment an image in a fixed
number of hard labels such as the k-means algorithm and only relying only on
deep learning techniques are still lacking. Here, we introduce the k-textures
algorithm which provides self supervised segmentation of a 4-band image
(RGB-NIR) for a $k$ number of classes. An example of its application on high
resolution Planet satellite imagery is given. Our algorithm shows that discrete
search is feasible using convolutional neural networks (CNN) and gradient
descent. The model detects $k$ hard clustering classes represented in the model
as $k$ discrete binary masks and their associated $k$ independently generated
textures, that combined are a simulation of the original image. The similarity
loss is the mean squared error between the features of the original and the
simulated image, both extracted from the penultimate convolutional block of
Keras 'imagenet' pretrained VGG-16 model and a custom feature extractor made
with Planet data. The main advances of the k-textures model are: first, the $k$
discrete binary masks are obtained inside the model using gradient descent. The
model allows for the generation of discrete binary masks using a novel method
using a hard sigmoid activation function. Second, it provides hard clustering
classes -- each pixels has only one class. Finally, in comparison to k-means,
where each pixel is considered independently, here, contextual information is
also considered and each class is not associated only to a similar values in
the color channels but to a texture. Our approach is designed to ease the
production of training samples for satellite image segmentation. The model
codes and weights are available at https://doi.org/10.5281/zenodo.6359859
- Abstract(参考訳): k-meansアルゴリズムのような固定数のハードラベルにイメージを分割し、ディープラーニング技術のみに依存するディープラーニング自己教師ありアルゴリズムはまだ不足している。
そこで本研究では、4バンド画像(RGB-NIR)の自己教師付きセグメンテーションを提供するk-texturesアルゴリズムを提案する。
高解像度のプラネタリー衛星画像への応用例があげられる。
本アルゴリズムは,畳み込みニューラルネットワーク(cnn)と勾配降下を用いて離散探索が実現可能であることを示す。
モデルは、モデルで表現されるハードクラスタリングクラスを$k$個別のバイナリマスクとして検出し、それに関連する$k$独立に生成されたテクスチャは、元のイメージのシミュレーションである。
類似性損失は、Keras 'imagenet' 事前訓練されたVGG-16モデルの最後尾の畳み込みブロックから抽出された原画像とシミュレーション画像の特徴との平均2乗誤差である。
k-texturesモデルの主な進歩は次のとおりである。
このモデルは、ハードシグモイドアクティベーション関数を用いた新しい手法を用いて、離散二元マスクの生成を可能にする。
第二に、ハードクラスタリングクラスを提供する -- 各ピクセルは1つのクラスしか持たない。
最後に、各画素が独立に考慮されているk平均と比較すると、文脈情報も考慮され、各クラスは色チャンネルの類似した値だけでなくテクスチャにも関連付けられている。
本手法は,衛星画像分割のためのトレーニングサンプルの作成を容易にする。
モデルコードとウェイトはhttps://doi.org/10.5281/zenodo.6359859で利用可能である。
関連論文リスト
- Deep Neural Networks Fused with Textures for Image Classification [20.58839604333332]
きめ細かい画像分類はコンピュータビジョンにおいて難しい課題である。
グローバルテクスチャと局所パッチ情報を組み合わせたFGICの融合手法を提案する。
提案手法は,有意なマージンを有する既存手法よりも高い分類精度を達成できた。
論文 参考訳(メタデータ) (2023-08-03T15:21:08Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Few-shot semantic segmentation via mask aggregation [5.886986014593717]
セマンティックセグメンテーションは、ラベル付きデータが少ない新しいクラスを認識することを目的としている。
従来の研究では、これをピクセル単位の分類問題と見なしていた。
この問題に対処するためのマスクベースの分類手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T07:13:09Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Grassmannian learning mutual subspace method for image set recognition [43.24089871099157]
本稿では,画像の集合を入力とするオブジェクト認識の問題に対処する(例えば,複数のカメラソースとビデオフレーム)。
本稿では,CNN上に埋め込まれたNN層であるG-LMSM(Grassmannian Learning mutual subspace method)を提案する。
提案手法は,手形認識,顔の識別,顔の感情認識における有効性を示す。
論文 参考訳(メタデータ) (2021-11-08T09:16:36Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。