論文の概要: RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training
- arxiv url: http://arxiv.org/abs/2002.02200v1
- Date: Thu, 6 Feb 2020 11:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 12:47:06.845074
- Title: RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training
- Title(参考訳): 自己監督深度事前学習を用いたRGBに基づくセマンティックセマンティックセグメンテーション
- Authors: Jean Lahoud, Bernard Ghanem
- Abstract要約: 本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
- 参考スコア(独自算出の注目度): 77.62171090230986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although well-known large-scale datasets, such as ImageNet, have driven image
understanding forward, most of these datasets require extensive manual
annotation and are thus not easily scalable. This limits the advancement of
image understanding techniques. The impact of these large-scale datasets can be
observed in almost every vision task and technique in the form of pre-training
for initialization. In this work, we propose an easily scalable and
self-supervised technique that can be used to pre-train any semantic RGB
segmentation method. In particular, our pre-training approach makes use of
automatically generated labels that can be obtained using depth sensors. These
labels, denoted by HN-labels, represent different height and normal patches,
which allow mining of local semantic information that is useful in the task of
semantic RGB segmentation. We show how our proposed self-supervised
pre-training with HN-labels can be used to replace ImageNet pre-training, while
using 25x less images and without requiring any manual labeling. We pre-train a
semantic segmentation network with our HN-labels, which resembles our final
task more than pre-training on a less related task, e.g. classification with
ImageNet. We evaluate on two datasets (NYUv2 and CamVid), and we show how the
similarity in tasks is advantageous not only in speeding up the pre-training
process, but also in achieving better final semantic segmentation accuracy than
ImageNet pre-training
- Abstract(参考訳): ImageNetのような有名な大規模データセットは、画像理解を前進させているが、これらのデータセットのほとんどは広範な手動アノテーションを必要とするため、スケーラビリティが低い。
これは画像理解技術の進歩を制限している。
これらの大規模データセットの影響は、初期化のための事前トレーニングという形で、ほぼすべてのビジョンタスクとテクニックで見ることができる。
本研究では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理的な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
これらのラベルはHNラベルで表され、高さと正規のパッチを表しており、意味的RGBセグメンテーションのタスクで有用な局所意味情報のマイニングを可能にする。
提案したHNラベルによる自己教師付き事前トレーニングは,手動によるラベル付けを必要とせず,25倍少ない画像を使用することなく,ImageNetの事前トレーニングを置き換えることができることを示す。
我々はHNラベルでセマンティックセグメンテーションネットワークを事前トレーニングする。これは、ImageNetによる分類のような、あまり関係のないタスクで事前トレーニングするよりも、最終タスクに似ています。
我々は,2つのデータセット (NYUv2 と CamVid) を評価し,タスク間の類似性が,事前学習プロセスの高速化だけでなく,ImageNet の事前学習よりも最終的なセマンティックセマンティックセマンティクスの精度向上に有効であることを示す。
関連論文リスト
- Learning Semantic Segmentation with Query Points Supervision on Aerial
Images [62.36946925639107]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Enhancing Self-Supervised Learning for Remote Sensing with Elevation
Data: A Case Study with Scarce And High Level Semantic Labels [1.534667887016089]
本研究は、地球観測下流タスクに適用された事前学習モデルに対する、教師なしと教師なしのハイブリッド学習手法を提案する。
我々は、事前訓練モデルに対する対照的なアプローチと画素単位の回帰事前テキストタスクを組み合わせることで、粗い標高マップを予測する。
論文 参考訳(メタデータ) (2023-04-13T23:01:11Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - From Explanations to Segmentation: Using Explainable AI for Image
Segmentation [1.8581514902689347]
我々は、説明可能なAI(XAI)コミュニティの進歩の上に構築し、ピクセル単位のバイナリセグメンテーションを抽出する。
我々は,既存のU-Netセグメンテーションアーキテクチャと比較して,同様の結果が得られることを示す。
トレーニングサンプルは画像レベルでのみラベル付けする必要があるため,提案手法は弱教師付きでトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-01T10:26:10Z) - Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method [13.479068312825781]
リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-06-20T03:03:40Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals [78.12377360145078]
画素埋め込みを学習するために、コントラスト最適化の目的として、予め決められた事前を取り入れた新しい2段階フレームワークを導入する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱している。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
論文 参考訳(メタデータ) (2021-02-11T18:54:47Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。