論文の概要: Semi-supervised Contrastive Learning Using Partial Label Information
- arxiv url: http://arxiv.org/abs/2003.07921v2
- Date: Mon, 3 Jun 2024 14:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 05:08:03.946798
- Title: Semi-supervised Contrastive Learning Using Partial Label Information
- Title(参考訳): 部分ラベル情報を用いた半教師付きコントラスト学習
- Authors: Colin B. Hansen, Vishwesh Nath, Diego A. Mesa, Yuankai Huo, Bennett A. Landman, Thomas A. Lasko,
- Abstract要約: 半教師付き学習では、ラベルなし例からの情報はラベル付き例から学習したモデルを改善するために使用される。
いくつかの学習問題では、ラベルの情報をラベルのない例から推測し、モデルをさらに改善するために使用することができる。
最新かつ最先端のMixMatchメソッドにNullspace Tuningを追加することで,テストエラーを最大1.8倍に削減できることを示す。
- 参考スコア(独自算出の注目度): 9.030208515049507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In semi-supervised learning, information from unlabeled examples is used to improve the model learned from labeled examples. In some learning problems, partial label information can be inferred from otherwise unlabeled examples and used to further improve the model. In particular, partial label information exists when subsets of training examples are known to have the same label, even though the label itself is missing. By encouraging the model to give the same label to all such examples through contrastive learning objectives, we can potentially improve its performance. We call this encouragement Nullspace Tuning because the difference vector between any pair of examples with the same label should lie in the nullspace of a linear model. In this paper, we investigate the benefit of using partial label information using a careful comparison framework over well-characterized public datasets. We show that the additional information provided by partial labels reduces test error over good semi-supervised methods usually by a factor of 2, up to a factor of 5.5 in the best case. We also show that adding Nullspace Tuning to the newer and state-of-the-art MixMatch method decreases its test error by up to a factor of 1.8.
- Abstract(参考訳): 半教師付き学習では、ラベルなし例からの情報はラベル付き例から学習したモデルを改善するために使用される。
いくつかの学習問題では、ラベルの情報をラベルのない例から推測し、モデルをさらに改善するために使用することができる。
特に、トレーニングサンプルのサブセットがラベル自体が欠落しているにも関わらず、同じラベルを持つことがわかっているときに、部分的なラベル情報が存在している。
対照的な学習目標を通じて、モデルに同じラベルをすべての例に付与するように促すことで、パフォーマンスを向上する可能性がある。
この促進をNullspace Tuningと呼ぶのは、同じラベルを持つ任意の一対の例の差分ベクトルが線型モデルのnull空間にあるからである。
そこで,本稿では,適切に分類された公開データセットに対する慎重な比較フレームワークを用いて,部分ラベル情報を使用することの利点について検討する。
部分ラベルによって提供される付加情報は、良い半教師付き手法よりもテストエラーを2倍から5.5倍に減らすことを示す。
また、最新かつ最先端のMixMatchメソッドにNullspace Tuningを追加することで、テストエラーを最大1.8倍に削減することを示す。
関連論文リスト
- Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - SepLL: Separating Latent Class Labels from Weak Supervision Noise [4.730767228515796]
弱い教師付き学習では、ラベル付け機能は自動的にデータサンプルにラベルを割り当て、しばしばうるさい。
本研究では,2種類の補完情報を分離し,弱いラベルから学習する手法を提案する。
我々のモデルは最先端技術と競合し、新しい最高の平均性能をもたらす。
論文 参考訳(メタデータ) (2022-10-25T10:33:45Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Multi-label Classification with Partial Annotations using Class-aware
Selective Loss [14.3159150577502]
大規模なマルチラベル分類データセットは、一般的に部分的に注釈付けされている。
部分的なラベリング問題を解析し、2つの重要なアイデアに基づいた解を提案する。
われわれの新しいアプローチにより、OpenImagesデータセット上で最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-21T08:10:55Z) - Learning with Noisy Labels by Targeted Relabeling [52.0329205268734]
クラウドソーシングプラットフォームは、ディープニューラルネットワークをトレーニングするためのデータセット収集によく使用される。
本稿では,少数のアノテーションを予約して,高い確率でラベル付け可能なエラーを明示的に緩和する手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T20:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。