論文の概要: Realizing Pixel-Level Semantic Learning in Complex Driving Scenes based
on Only One Annotated Pixel per Class
- arxiv url: http://arxiv.org/abs/2003.04671v1
- Date: Tue, 10 Mar 2020 12:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:10:59.706761
- Title: Realizing Pixel-Level Semantic Learning in Complex Driving Scenes based
on Only One Annotated Pixel per Class
- Title(参考訳): クラスごとの注釈付き1点のみに基づく複合運転シーンにおける画素レベルセマンティック学習の実現
- Authors: Xi Li, Huimin Ma, Sheng Yi, Yanxian Chen
- Abstract要約: 本稿では,複雑な運転シーン下でのセマンティックセマンティックセマンティクスタスクを提案する。
3段階のプロセスは擬似ラベル生成のために構築され、各カテゴリに最適な特徴表現を徐々に実装する。
Cityscapesデータセットの実験は、提案手法が弱教師付きセマンティックセマンティックセマンティクスタスクを解決するための実現可能な方法であることを示した。
- 参考スコア(独自算出の注目度): 17.481116352112682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation tasks based on weakly supervised condition have been
put forward to achieve a lightweight labeling process. For simple images that
only include a few categories, researches based on image-level annotations have
achieved acceptable performance. However, when facing complex scenes, since
image contains a large amount of classes, it becomes difficult to learn visual
appearance based on image tags. In this case, image-level annotations are not
effective in providing information. Therefore, we set up a new task in which
only one annotated pixel is provided for each category. Based on the more
lightweight and informative condition, a three step process is built for pseudo
labels generation, which progressively implement optimal feature representation
for each category, image inference and context-location based refinement. In
particular, since high-level semantics and low-level imaging feature have
different discriminative ability for each class under driving scenes, we divide
each category into "object" or "scene" and then provide different operations
for the two types separately. Further, an alternate iterative structure is
established to gradually improve segmentation performance, which combines
CNN-based inter-image common semantic learning and imaging prior based
intra-image modification process. Experiments on Cityscapes dataset demonstrate
that the proposed method provides a feasible way to solve weakly supervised
semantic segmentation task under complex driving scenes.
- Abstract(参考訳): 弱教師付き条件に基づくセマンティックセグメンテーションタスクは、軽量なラベリングプロセスを実現するために進められている。
いくつかのカテゴリのみを含む単純な画像の場合、画像レベルのアノテーションに基づく研究は許容できる性能を達成した。
しかし、複雑な場面に直面すると、画像には大量のクラスが含まれているため、画像タグに基づいて視覚的な外観を学ぶことが困難になる。
この場合、画像レベルのアノテーションは情報提供に有効ではない。
そこで,各カテゴリに1つのアノテートされた画素のみを割り当てるタスクを新たに設定した。
より軽量で情報的な条件に基づいて、擬似ラベル生成のための3段階のプロセスが構築され、各カテゴリの最適な特徴表現、画像推論、コンテキストロケーションに基づくリファインメントを段階的に実装する。
特に,高レベルセマンティクスと低レベルイメージング機能は,運転場面の各クラスで異なる識別能力を有するため,各カテゴリを「オブジェクト」または「シーン」に分け,その2つのタイプの異なる操作を提供する。
さらに、cnnベースの画像間共通意味学習と画像内修正処理を組み合わせたセグメンテーション性能を徐々に向上させるために、交互に反復構造が確立される。
Cityscapesデータセットの実験では、複雑な運転シーン下で弱教師付きセマンティックセマンティックセグメンテーションタスクを解決するための提案手法が実現可能であることが示された。
関連論文リスト
- Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - ISLE: A Framework for Image Level Semantic Segmentation Ensemble [5.137284292672375]
従来のセマンティックセグメンテーションネットワークは、最先端の予測品質に到達するために、大量のピクセル単位のアノテートラベルを必要とする。
クラスレベルで異なるセマンティックセグメンテーション手法のセットに「擬似ラベル」のアンサンブルを用いるISLEを提案する。
私たちはISLEの個々のコンポーネントよりも2.4%改善しています。
論文 参考訳(メタデータ) (2023-03-14T13:36:36Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - Attribute Group Editing for Reliable Few-shot Image Generation [85.52840521454411]
本稿では,画像生成のための新しい編集手法,すなわちAttribute Group Editing (AGE)を提案する。
AGEは、GANで学んだ内部表現を調べ、意味的に意味のある方向を識別する。
論文 参考訳(メタデータ) (2022-03-16T06:54:09Z) - A Pixel-Level Meta-Learner for Weakly Supervised Few-Shot Semantic
Segmentation [40.27705176115985]
Few-shotのセマンティックセマンティックセグメンテーションは、興味のある新しいクラスのために、地上の真実のピクセルレベルのラベルを持つ少数の画像しか利用できない学習タスクに対処する。
限られたデータとその意味ラベルから擬似画素レベルのセグメンテーションマスクを予測するメタラーニングフレームワークを提案する。
提案する学習モデルは,画素レベルのメタラーナーとみなすことができる。
論文 参考訳(メタデータ) (2021-11-02T08:28:11Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Universal Weakly Supervised Segmentation by Pixel-to-Segment Contrastive
Learning [28.498782661888775]
半教師付きメトリック学習問題として弱教師付きセグメンテーションを定式化する。
特徴空間における画素とセグメント間のコントラスト関係を4種類提案する。
我々はPascal VOCとDensePoseに大きな利益をもたらす、普遍的な弱教師付きセグメンタを提供する。
論文 参考訳(メタデータ) (2021-05-03T15:49:01Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Few-Shot Semantic Segmentation Augmented with Image-Level Weak
Annotations [23.02986307143718]
ショットセマンティックセグメンテーションの最近の進歩は、わずか数ピクセルレベルの注釈付き例によってこの問題に対処している。
私たちのキーとなるアイデアは、イメージレベルのラベル付きデータから知識を融合させることで、クラスのより優れたプロトタイプ表現を学ぶことです。
画像レベルのアノテーションを統合することで,距離空間におけるクラスプロトタイプ表現を学習するための新しいフレームワークPAIAを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:58:20Z) - Learning to segment images with classification labels [0.0]
本稿では,画像レベルのラベルを用いることで,セグメンテーションレベルの真実の要求を緩和できるアーキテクチャを提案する。
実験では,クラス毎に1つのセグメンテーションレベルのアノテーションしか使用せず,完全に注釈付けされたデータセットに匹敵する性能が得られることを示した。
論文 参考訳(メタデータ) (2019-12-28T22:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。