論文の概要: All Labels Are Not Created Equal: Enhancing Semi-supervision via Label
Grouping and Co-training
- arxiv url: http://arxiv.org/abs/2104.05248v1
- Date: Mon, 12 Apr 2021 07:33:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:32:06.947551
- Title: All Labels Are Not Created Equal: Enhancing Semi-supervision via Label
Grouping and Co-training
- Title(参考訳): すべてのラベルは等しく作成されない:ラベルグルーピングとコトレーニングによる半スーパービジョンの拡張
- Authors: Islam Nassar, Samitha Herath, Ehsan Abbasnejad, Wray Buntine,
Gholamreza Haffari
- Abstract要約: Pseudo-labelingは、半教師付き学習(SSL)の鍵となるコンポーネントである
本論文では,ラベルセマンティクスとコトレーニングを活用した問題解決手法であるSemCoを提案する。
提案手法は,1000個のラベル付きサンプルを持つミニイメージネットデータセットにおける5.6%の精度向上を含む,様々なsslタスクにおいて最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 32.45488147013166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pseudo-labeling is a key component in semi-supervised learning (SSL). It
relies on iteratively using the model to generate artificial labels for the
unlabeled data to train against. A common property among its various methods is
that they only rely on the model's prediction to make labeling decisions
without considering any prior knowledge about the visual similarity among the
classes. In this paper, we demonstrate that this degrades the quality of
pseudo-labeling as it poorly represents visually similar classes in the pool of
pseudo-labeled data. We propose SemCo, a method which leverages label semantics
and co-training to address this problem. We train two classifiers with two
different views of the class labels: one classifier uses the one-hot view of
the labels and disregards any potential similarity among the classes, while the
other uses a distributed view of the labels and groups potentially similar
classes together. We then co-train the two classifiers to learn based on their
disagreements. We show that our method achieves state-of-the-art performance
across various SSL tasks including 5.6% accuracy improvement on Mini-ImageNet
dataset with 1000 labeled examples. We also show that our method requires
smaller batch size and fewer training iterations to reach its best performance.
We make our code available at https://github.com/islam-nassar/semco.
- Abstract(参考訳): Pseudo-labelingは、半教師付き学習(SSL)において重要なコンポーネントである。
反復的にモデルを使用して、ラベルのないデータに対してトレーニングを行うための人工ラベルを生成する。
様々な手法の共通する特性は、クラス間の視覚的類似性についての事前の知識を考慮せずにラベル決定を行うためのモデルの予測にのみ依存していることである。
本稿では,疑似ラベルデータのプール内で視覚的に類似したクラスを表現できないため,擬似ラベルの品質が低下することを示す。
本稿では,ラベルのセマンティクスと協調学習を利用してこの問題に対処するSemCoを提案する。
クラスラベルの2つの異なるビューを持つ2つの分類器をトレーニングする。 1つの分類器はラベルの1つのホットビューを使用し、クラス間の潜在的な類似性を無視する。
次に2つの分類器を共同学習し、その不一致に基づいて学習する。
提案手法は,1000個のラベル付きサンプルを持つミニイメージネットデータセットにおける5.6%の精度向上を含む,様々なsslタスクにおいて最先端の性能を実現する。
また,本手法ではバッチサイズを小さくし,最高のパフォーマンスを達成するためにトレーニングイテレーションを少なくする。
コードはhttps://github.com/islam-nassar/semcoで利用可能です。
関連論文リスト
- Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels [8.977819892091]
マルチラベル分類は、複数のクラスにインスタンスを関連付けることができる日常生活において、広く発生する問題である。
本研究では,ラベルの不均衡の問題に対処し,部分ラベルを用いたニューラルネットワークのトレーニング方法について検討する。
論文 参考訳(メタデータ) (2023-07-31T21:50:48Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Learning from Stochastic Labels [8.178975818137937]
マルチクラスインスタンスのアノテーションは、機械学習の分野で重要なタスクである。
本稿では,これらのラベルから学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-01T08:04:27Z) - Combining Metric Learning and Attention Heads For Accurate and Efficient
Multilabel Image Classification [0.0]
マルチラベル分類における2つの一般的なアプローチについて再検討する。
トランスフォーマーベースヘッドはグラフベースのブランチよりも優れた結果が得られると考えられるが、適切なトレーニング戦略により、グラフベースの手法はわずかに精度の低下を示すことができると論じる。
論文 参考訳(メタデータ) (2022-09-14T12:06:47Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - Multi-Label Learning from Single Positive Labels [37.17676289125165]
与えられた画像に対して適用可能なラベルを全て予測することは、マルチラベル分類(multi-label classification)として知られている。
その結果,ラベルの確認が著しく少ないにもかかわらず,完全ラベル付き分類器の性能にアプローチできることが示唆された。
論文 参考訳(メタデータ) (2021-06-17T17:58:04Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Unsupervised Person Re-identification via Multi-label Classification [55.65870468861157]
本稿では,教師なしのReIDを多ラベル分類タスクとして定式化し,段階的に真のラベルを求める。
提案手法は,まず,各人物画像に単一クラスラベルを割り当てることから始まり,ラベル予測のために更新されたReIDモデルを活用することで,多ラベル分類へと進化する。
マルチラベル分類におけるReIDモデルのトレーニング効率を高めるために,メモリベースマルチラベル分類損失(MMCL)を提案する。
論文 参考訳(メタデータ) (2020-04-20T12:13:43Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。