論文の概要: NoPeopleAllowed: The Three-Step Approach to Weakly Supervised Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2006.07601v1
- Date: Sat, 13 Jun 2020 09:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:08:34.703159
- Title: NoPeopleAllowed: The Three-Step Approach to Weakly Supervised Semantic
Segmentation
- Title(参考訳): NoPeopleAllowed: 弱修正セマンティックセグメンテーションのための3ステップアプローチ
- Authors: Mariia Dobko, Ostap Viniavskyi, Oles Dobosevych
- Abstract要約: 弱教師付きセマンティックセグメンテーションにおける3つのステップからなる新しい手法を提案する。
最初の2つのステップは、画像レベルの注釈付きデータから高品質な擬似マスクを抽出し、3番目のステップでセグメンテーションモデルをトレーニングするために使用される。
提案されたアプローチは、データの2つの問題、すなわちクラス不均衡とラベルの欠如にも対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel approach to weakly supervised semantic segmentation, which
consists of three consecutive steps. The first two steps extract high-quality
pseudo masks from image-level annotated data, which are then used to train a
segmentation model on the third step. The presented approach also addresses two
problems in the data: class imbalance and missing labels. Using only
image-level annotations as supervision, our method is capable of segmenting
various classes and complex objects. It achieves 37.34 mean IoU on the test
set, placing 3rd at the LID Challenge in the task of weakly supervised semantic
segmentation.
- Abstract(参考訳): 本稿では,3段階連続した,弱い教師付き意味セグメンテーションに対する新しいアプローチを提案する。
最初の2つのステップは、画像レベルの注釈データから高品質の擬似マスクを抽出し、3番目のステップでセグメンテーションモデルをトレーニングするために使用される。
提案されたアプローチは、データの2つの問題、すなわちクラス不均衡とラベルの欠如にも対処する。
画像レベルのアノテーションのみを監督として使用することで,様々なクラスや複雑なオブジェクトをセグメンテーションすることができる。
テストセット上で37.34の平均IoUを達成し、弱い教師付きセマンティックセグメンテーションのタスクにおいて、LIDチャレンジで3位となる。
関連論文リスト
- LESS: Label-Efficient and Single-Stage Referring 3D Segmentation [55.06002976797879]
参照3Dは、クエリの文で記述された3Dポイントクラウドから、指定されたオブジェクトのすべてのポイントをセグメントする視覚言語タスクである。
本稿では,LESSと呼ばれるレファレンス3次元パイプラインを提案する。
ScanReferデータセット上での最先端のパフォーマンスは、バイナリラベルのみを使用して、以前の3.7% mIoUの手法を上回ります。
論文 参考訳(メタデータ) (2024-10-17T07:47:41Z) - Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations [57.615325809883636]
3Dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めた。
本稿では,分類的セマンティックラベルのみを監督対象とする,弱制御型3Dインスタンスセマンティクス手法を提案する。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
論文 参考訳(メタデータ) (2023-08-03T12:30:52Z) - ClickSeg: 3D Instance Segmentation with Click-Level Weak Annotations [29.231508413247457]
3次元のインスタンスセグメンテーション法は、トレーニングのために完全に注釈付けされた高密度ラベルを必要とすることが多い。
ClickSegは、クリックレベルの弱教師付き3Dインスタンスセグメンテーション手法である。
ClickSegは、完全に教師された相手の精度の90%の$simを達成している。
論文 参考訳(メタデータ) (2023-07-19T02:49:44Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - Learning Inter-Superpoint Affinity for Weakly Supervised 3D Instance
Segmentation [10.968271388503986]
本稿では,各インスタンスに1点だけアノテートすることで,優れたパフォーマンスを実現する3Dインスタンスセグメンテーションフレームワークを提案する。
本手法は,弱教師付きポイントクラウドインスタンスセグメンテーションタスクにおける最先端性能を実現し,完全教師付き手法よりも優れる。
論文 参考訳(メタデータ) (2022-10-11T15:22:22Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - Three Ways to Improve Semantic Segmentation with Self-Supervised Depth
Estimation [90.87105131054419]
ラベルなし画像列からの自己教師付き単眼深度推定により強化された半教師付きセマンティックセマンティックセマンティックセマンティクスのフレームワークを提案する。
提案されたモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2020-12-19T21:18:03Z) - Few-shot 3D Point Cloud Semantic Segmentation [138.80825169240302]
本稿では,新しい注意型マルチプロトタイプトランスダクティブ・ショットポイント・クラウドセマンティックセマンティック・セマンティクス法を提案する。
提案手法は,雲のセマンティックセマンティックセグメンテーション設定の違いによるベースラインに比べて,顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2020-06-22T08:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。