論文の概要: Weakly supervised training of universal visual concepts for multi-domain
semantic segmentation
- arxiv url: http://arxiv.org/abs/2212.10340v2
- Date: Fri, 6 Oct 2023 19:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 15:27:32.700633
- Title: Weakly supervised training of universal visual concepts for multi-domain
semantic segmentation
- Title(参考訳): 多領域意味セグメンテーションのための普遍視覚概念の弱い教師付き学習
- Authors: Petra Bevandi\'c, Marin Or\v{s}i\'c, Ivan Grubi\v{s}i\'c, Josip
\v{S}ari\'c, Sini\v{s}a \v{S}egvi\'c
- Abstract要約: 深層教師付きモデルには、大量のトレーニングデータを吸収する前例のない能力がある。
異なるデータセットは、しばしば非互換なラベルを持つ。我々はラベルを普遍的な視覚概念の結合と見なしている。
本手法は,トレーニングデータセットに別々にラベル付けされていない視覚概念を学習すると同時に,競合するデータセット内およびクロスデータセットの一般化を実現する。
- 参考スコア(独自算出の注目度): 1.772589329365753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep supervised models have an unprecedented capacity to absorb large
quantities of training data. Hence, training on multiple datasets becomes a
method of choice towards strong generalization in usual scenes and graceful
performance degradation in edge cases. Unfortunately, different datasets often
have incompatible labels. For instance, the Cityscapes road class subsumes all
driving surfaces, while Vistas defines separate classes for road markings,
manholes etc. Furthermore, many datasets have overlapping labels. For instance,
pickups are labeled as trucks in VIPER, cars in Vistas, and vans in ADE20k. We
address this challenge by considering labels as unions of universal visual
concepts. This allows seamless and principled learning on multi-domain dataset
collections without requiring any relabeling effort. Our method achieves
competitive within-dataset and cross-dataset generalization, as well as ability
to learn visual concepts which are not separately labeled in any of the
training datasets. Experiments reveal competitive or state-of-the-art
performance on two multi-domain dataset collections and on the WildDash 2
benchmark.
- Abstract(参考訳): 深層監視モデルには、大量のトレーニングデータを吸収する前例のない能力がある。
したがって、複数のデータセットのトレーニングは、通常のシーンにおける強い一般化とエッジケースにおける優雅なパフォーマンス劣化への選択方法となる。
残念ながら、異なるデータセットは互換性のないラベルを持つことが多い。
例えば、Cityscapesロードクラスはすべての走行面を仮定し、Vistasは道路マーキングやマンホールなどの別々のクラスを定義している。
さらに、多くのデータセットには重複ラベルがある。
例えば、ピックアップはVIPERのトラック、Vistaの車、ADE20kのバンとしてラベル付けされる。
我々は、ラベルを普遍的な視覚概念の連合として考えることで、この問題に対処する。
これにより、relabelingの労力を必要とせずに、マルチドメインデータセットコレクション上でシームレスで原則的な学習が可能になる。
本手法は,データセット内およびデータセット間を競争的に一般化するとともに,トレーニングデータセットに別々にラベル付けされていない視覚概念を学習する能力を有する。
実験では、2つのマルチドメインデータセットコレクションとWildDash 2ベンチマークで、競合や最先端のパフォーマンスが明らかになった。
関連論文リスト
- Reliable Representations Learning for Incomplete Multi-View Partial Multi-Label Classification [78.15629210659516]
本稿ではRANKという不完全なマルチビュー部分的マルチラベル分類ネットワークを提案する。
既存の手法に固有のビューレベルの重みを分解し、各サンプルのビューに品質スコアを動的に割り当てる品質対応サブネットワークを提案する。
我々のモデルは、完全なマルチビューマルチラベルデータセットを処理できるだけでなく、欠落したインスタンスやラベルを持つデータセットでも機能する。
論文 参考訳(メタデータ) (2023-03-30T03:09:25Z) - Label Name is Mantra: Unifying Point Cloud Segmentation across
Heterogeneous Datasets [17.503843467554592]
本稿では,異なるラベル集合を持つ異種データセットからの学習を支援する原理的アプローチを提案する。
我々の考えは、学習済みの言語モデルを用いて、ラベル名を用いて離散ラベルを連続的な潜在空間に埋め込むことである。
私たちのモデルは最先端の技術を大きなマージンで上回ります。
論文 参考訳(メタデータ) (2023-03-19T06:14:22Z) - Automatic universal taxonomies for multi-domain semantic segmentation [1.4364491422470593]
複数のデータセットに対するセマンティックセグメンテーションモデルのトレーニングは、コンピュータビジョンコミュニティに最近多くの関心を呼んだ。
確立されたデータセットには 互いに互換性のないラベルがあります 野生の原理的推論を妨害します
我々は、反復的データセット統合による普遍的な構築によってこの問題に対処する。
論文 参考訳(メタデータ) (2022-07-18T08:53:17Z) - Learning Semantic Segmentation from Multiple Datasets with Label Shifts [101.24334184653355]
本論文では,ラベル空間が異なる複数のデータセットを対象としたモデルの自動学習手法であるUniSegを提案する。
具体的には,ラベルの相反と共起を考慮に入れた2つの損失を提案する。
論文 参考訳(メタデータ) (2022-02-28T18:55:19Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Multi-domain semantic segmentation with overlapping labels [1.4120796122384087]
本稿では,部分ラベルと確率的損失に基づいて重なり合うクラスを持つデータセットをシームレスに学習する手法を提案する。
本手法は,トレーニングデータセットに別々にラベル付けされていない視覚概念を学習すると同時に,競合するデータセット内およびクロスデータセットの一般化を実現する。
論文 参考訳(メタデータ) (2021-08-25T13:25:41Z) - DAIL: Dataset-Aware and Invariant Learning for Face Recognition [67.4903809903022]
顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。
2つの大きな問題のために異なるデータセットを自然に組み合わせるのは問題で面倒です。
トレーニング中に異なるデータセットの異なるクラスと同じ人を扱うことは、バックプロパゲーションに影響します。
手動でラベルをクリーニングするには 人的努力が要る 特に何百万もの画像と何千ものIDがある時は
論文 参考訳(メタデータ) (2021-01-14T01:59:52Z) - Reducing the Annotation Effort for Video Object Segmentation Datasets [50.893073670389164]
ピクセルマスクでフレームを密にラベル付けしても 大規模なデータセットにはスケールしない
我々は、より安価なバウンディングボックスアノテーションからピクセルレベルで擬似ラベルを自動生成するために、深層畳み込みネットワークを使用します。
我々は新しいTAO-VOSベンチマークを取得し、www.vision.rwth-aachen.de/page/taovosで公開している。
論文 参考訳(メタデータ) (2020-11-02T17:34:45Z) - Multi-label Zero-shot Classification by Learning to Transfer from
External Knowledge [36.04579549557464]
マルチラベルゼロショット分類は、入力画像に対する複数の未知のクラスラベルを予測することを目的としている。
本稿では,外部知識の伝達を学習することで,新たなゼロショット分類フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:26:46Z) - Cross-dataset Training for Class Increasing Object Detection [52.34737978720484]
オブジェクト検出におけるクロスデータセットトレーニングのための,概念的にシンプルで柔軟で汎用的なフレームワークを提案する。
データセット間のトレーニングによって、既存のデータセットを使用して、単一のモデルで統合されたオブジェクトクラスを検出することができる。
クロスデータセットトレーニングを使用している間、新しいデータセットに新しいクラスをラベル付けするだけです。
論文 参考訳(メタデータ) (2020-01-14T04:40:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。