論文の概要: SIGN: Spatial-information Incorporated Generative Network for
Generalized Zero-shot Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2108.12517v1
- Date: Fri, 27 Aug 2021 22:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 09:39:54.154690
- Title: SIGN: Spatial-information Incorporated Generative Network for
Generalized Zero-shot Semantic Segmentation
- Title(参考訳): 記号:一般ゼロショット意味セグメンテーションのための空間情報組込み生成ネットワーク
- Authors: Jiaxin Cheng, Soumyaroop Nandi, Prem Natarajan, Wael Abd-Almageed
- Abstract要約: ゼロショットセマンティックセグメンテーションは、画像レベルの代わりにピクセルレベルでクラスラベルを予測する。
Relative Positionalは特徴レベルで空間情報を統合し、任意の画像サイズを処理できる。
Anneal Self-Trainingは、自動的に異なる重要性を擬似ラベルに割り当てる。
- 参考スコア(独自算出の注目度): 22.718908677552196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unlike conventional zero-shot classification, zero-shot semantic segmentation
predicts a class label at the pixel level instead of the image level. When
solving zero-shot semantic segmentation problems, the need for pixel-level
prediction with surrounding context motivates us to incorporate spatial
information using positional encoding. We improve standard positional encoding
by introducing the concept of Relative Positional Encoding, which integrates
spatial information at the feature level and can handle arbitrary image sizes.
Furthermore, while self-training is widely used in zero-shot semantic
segmentation to generate pseudo-labels, we propose a new
knowledge-distillation-inspired self-training strategy, namely Annealed
Self-Training, which can automatically assign different importance to
pseudo-labels to improve performance. We systematically study the proposed
Relative Positional Encoding and Annealed Self-Training in a comprehensive
experimental evaluation, and our empirical results confirm the effectiveness of
our method on three benchmark datasets.
- Abstract(参考訳): 従来のゼロショット分類とは異なり、ゼロショットセマンティックセグメンテーションは画像レベルではなくピクセルレベルでクラスラベルを予測する。
ゼロショット意味セグメンテーション問題を解くとき、周辺文脈でのピクセルレベルの予測の必要性は、位置符号化を用いた空間情報の導入を動機付ける。
特徴レベルで空間情報を統合し、任意の画像サイズを処理できる相対的位置符号化の概念を導入することにより、標準的な位置符号化を改善する。
さらに,ゼロショットセマンティクスセグメンテーションにおいて,擬似ラベルを生成するために,セルフトレーニングが広く用いられている一方で,擬似ラベルに異なる重要性を付与し,パフォーマンスを向上させるための新しい知識蒸留誘導セルフトレーニング戦略であるアニールドセルフトレーニングを提案する。
提案した相対的位置エンコーディングとアナルド自己学習を総合的な実験評価で体系的に検討し,本手法の有効性を3つのベンチマークデータセットで検証した。
関連論文リスト
- Semi-supervised Semantic Segmentation Meets Masked Modeling:Fine-grained
Locality Learning Matters in Consistency Regularization [31.333862320143968]
半教師付きセマンティックセグメンテーションはラベル付き画像と豊富なラベル付き画像を利用してラベル効率の高い学習を実現することを目的としている。
我々は,より詳細な局所性学習により,より高密度なセグメンテーションを実現する,textttMaskMatchという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T03:28:53Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Language-driven Semantic Segmentation [88.21498323896475]
本稿では,言語駆動型セマンティックイメージセグメンテーションの新しいモデルLSegを提案する。
テキストエンコーダを用いて記述型入力ラベルの埋め込みを計算する。
エンコーダは、画素埋め込みを対応するセマンティッククラスのテキスト埋め込みに合わせるために、対照的な目的で訓練される。
論文 参考訳(メタデータ) (2022-01-10T18:59:10Z) - Local contrastive loss with pseudo-label based self-training for
semi-supervised medical image segmentation [13.996217500923413]
セミ/セルフ教師付き学習ベースのアプローチは、注釈付きデータとともにラベル付きデータを悪用する。
近年の自己教師付き学習法では, コントラッシブ・ロスを用いて, ラベルのない画像から優れたグローバルレベル表現を学習している。
セグメンテーションに有用な画素レベルの特徴を,セマンティックラベル情報を利用して学習するために,局所的なコントラスト損失を提案する。
論文 参考訳(メタデータ) (2021-12-17T17:38:56Z) - InfoSeg: Unsupervised Semantic Image Segmentation with Mutual
Information Maximization [0.0]
局所的特徴と大域的高レベル特徴の相互情報に基づく教師なし画像表現の新しい手法を提案する。
最初のステップでは、ローカル機能とグローバル機能に基づいて、イメージをセグメント化する。
第2のステップでは,各クラスの局所的特徴と高次特徴との相互関係を最大化する。
論文 参考訳(メタデータ) (2021-10-07T14:01:42Z) - Navigation-Oriented Scene Understanding for Robotic Autonomy: Learning
to Segment Driveability in Egocentric Images [25.350677396144075]
この研究は、屋外ロボットナビゲーションのシーン理解に取り組み、オンボードカメラで撮影された画像にのみ依存する。
我々は、ロボットがどのようにナビゲートするかという点で、自我中心の画像を直接分類し、学習問題を自律的なナビゲーションタスクに合わせる。
任意のシーンに適用可能な3つの駆動性レベルからなる汎用的かつスケーラブルなアベイランスベースの定義を提案する。
論文 参考訳(メタデータ) (2021-09-15T12:25:56Z) - Context-aware Feature Generation for Zero-shot Semantic Segmentation [18.37777970377439]
ゼロショットセグメンテーションのためのコンテキスト認識機能生成手法CaGNetを提案する。
提案手法は,ゼロショットセグメンテーションのための3つのベンチマークデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-08-16T12:20:49Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Self-Supervised Tuning for Few-Shot Segmentation [82.32143982269892]
Few-shotのセグメンテーションは、アノテートされたサンプルがほとんどない各画像ピクセルにカテゴリラベルを割り当てることを目的としている。
既存のメタラーニング手法では, 画像から抽出した視覚的特徴を埋め込み空間に埋め込むと, カテゴリー別識別記述子の生成に失敗する傾向にある。
本稿では,複数のエピソードにまたがる潜在特徴の分布を,自己分割方式に基づいて動的に調整する適応型フレームワークチューニングを提案する。
論文 参考訳(メタデータ) (2020-04-12T03:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。