論文の概要: Instance-specific and Model-adaptive Supervision for Semi-supervised
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2211.11335v1
- Date: Mon, 21 Nov 2022 10:37:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 20:58:49.883526
- Title: Instance-specific and Model-adaptive Supervision for Semi-supervised
Semantic Segmentation
- Title(参考訳): 半教師付き意味セグメンテーションのインスタンス固有およびモデル適応的監督
- Authors: Zhen Zhao and Sifan Long and Jimin Pi and Jingdong Wang and Luping
Zhou
- Abstract要約: iMAS と呼ばれる半教師付きセマンティックセグメンテーションのためのインスタンス固有およびモデル適応型監視法を提案する。
iMASは、評価された硬さに基づいて、対応する一貫性損失を測定することで、ラベルのないインスタンスから徐々に学習する。
- 参考スコア(独自算出の注目度): 49.82432158155329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, semi-supervised semantic segmentation has achieved promising
performance with a small fraction of labeled data. However, most existing
studies treat all unlabeled data equally and barely consider the differences
and training difficulties among unlabeled instances. Differentiating unlabeled
instances can promote instance-specific supervision to adapt to the model's
evolution dynamically. In this paper, we emphasize the cruciality of instance
differences and propose an instance-specific and model-adaptive supervision for
semi-supervised semantic segmentation, named iMAS. Relying on the model's
performance, iMAS employs a class-weighted symmetric intersection-over-union to
evaluate quantitative hardness of each unlabeled instance and supervises the
training on unlabeled data in a model-adaptive manner. Specifically, iMAS
learns from unlabeled instances progressively by weighing their corresponding
consistency losses based on the evaluated hardness. Besides, iMAS dynamically
adjusts the augmentation for each instance such that the distortion degree of
augmented instances is adapted to the model's generalization capability across
the training course. Not integrating additional losses and training procedures,
iMAS can obtain remarkable performance gains against current state-of-the-art
approaches on segmentation benchmarks under different semi-supervised partition
protocols.
- Abstract(参考訳): 近年,半教師付きセマンティックセグメンテーションは少数のラベル付きデータで有望な性能を実現している。
しかし、既存の研究の多くは、すべてのラベルのないデータを等しく扱い、ラベルのないインスタンスの違いやトレーニングの難しさをほとんど考慮していない。
ラベルなしインスタンスの差別化は、モデルの進化に動的に対応するためにインスタンス固有の監督を促進することができる。
本稿では, インスタンス差分の重要性を強調し, iMAS という半教師付きセマンティックセマンティックセグメンテーションのためのインスタンス固有かつモデル適応型の監視手法を提案する。
モデルの性能に基づいて、iMASはクラス重み付き対称交叉結合を用いて、各未ラベルデータの量的硬さを評価し、モデル適応的な方法で未ラベルデータのトレーニングを監督する。
具体的には、評価された硬度に基づいて対応する一貫性損失を重み付けて、ラベルのないインスタンスから段階的に学習する。
さらに、拡張インスタンスの歪み度がトレーニングコース全体のモデルの一般化能力に適合するように、各インスタンスの拡張度を動的に調整する。
iMASは、追加の損失とトレーニング手順を統合することなく、異なる半教師付きパーティションプロトコルの下でのセグメンテーションベンチマークにおける最先端のアプローチに対して、顕著なパフォーマンス向上を得ることができる。
関連論文リスト
- Instance-wise Uncertainty for Class Imbalance in Semantic Segmentation [4.147659576493158]
最先端の手法はますます深層学習モデルに依存しており、不確実性を誤って推定し、予測を過度に信ずることが知られている。
これは、固有のクラス不均衡のため、セマンティックセグメンテーションにおいて特に問題となる。
セマンティックセグメンテーションに特化して設計された新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-17T14:38:32Z) - cDP-MIL: Robust Multiple Instance Learning via Cascaded Dirichlet Process [23.266122629592807]
マルチプル・インスタンス・ラーニング (MIL) は全スライス・ヒストパラメトリック・イメージ (WSI) 解析に広く応用されている。
MILの既存の集約戦略は、主にインスタンス間の一階距離に依存するが、各インスタンスの真の特徴分布を正確に近似することができない。
本稿では、複数のインスタンス学習のための新しいベイズ非パラメトリックフレームワークを提案し、WSIのインスタンス・ツー・バッグ特性を組み込むためにディリクレ・プロセスのカスケード(cDP)を採用する。
論文 参考訳(メタデータ) (2024-07-16T07:28:39Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Instance-aware Model Ensemble With Distillation For Unsupervised Domain
Adaptation [28.79286984013436]
本稿では,新しいフレームワーク,すなわち IMED を用いたモデルアンサンブルを提案する。
IMEDは複数のUDAコンポーネントモデルを異なるインスタンスに応じて適応的に融合し、これらのコンポーネントを小さなモデルに蒸留する。
本稿では, IMEDに基づくモデルと, 同等の計算コスト下での最先端技術について述べる。
論文 参考訳(メタデータ) (2022-11-15T12:53:23Z) - Controller-Guided Partial Label Consistency Regularization with
Unlabeled Data [49.24911720809604]
本稿では,ラベルレベルと表現レベルの両方において,コントローラ誘導整合正則化を提案する。
信頼度閾値を動的に調整し、整合正則化に参加する各クラスのサンプル数が大まかに等しいようにし、クラス不均衡の問題を緩和する。
論文 参考訳(メタデータ) (2022-10-20T12:15:13Z) - PAC Generalization via Invariant Representations [41.02828564338047]
有限標本集合における$epsilon$-approximate不変性の概念を考える。
PAC学習にインスパイアされ、有限サンプルのアウト・オブ・ディストリビューション一般化保証を得る。
この結果から, 介入部位が非次境界ノードの一定サイズの部分集合内にある場合に, 周囲次元でスケールしない境界を示す。
論文 参考訳(メタデータ) (2022-05-30T15:50:14Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Adaptive Affinity Loss and Erroneous Pseudo-Label Refinement for Weakly
Supervised Semantic Segmentation [48.294903659573585]
本稿では,多段階アプローチの親和性学習を単一段階モデルに組み込むことを提案する。
深層ニューラルネットワークは、トレーニングフェーズで包括的なセマンティック情報を提供するために使用される。
提案手法の有効性を評価するため,PASCAL VOC 2012データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-08-03T07:48:33Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。