論文の概要: Weakly-Supervised Contrastive Learning for Imprecise Class Labels
- arxiv url: http://arxiv.org/abs/2505.22028v1
- Date: Wed, 28 May 2025 06:50:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.453373
- Title: Weakly-Supervised Contrastive Learning for Imprecise Class Labels
- Title(参考訳): 不正確なクラスラベルに対する弱教師付きコントラスト学習
- Authors: Zi-Hao Zhou, Jun-Jie Wang, Tong Wei, Min-Ling Zhang,
- Abstract要約: 正対と負対を定義するために「連続的意味的類似性」の概念を導入する。
弱教師付きコントラスト学習のためのグラフ理論フレームワークを提案する。
我々のフレームワークは非常に多用途であり、多くの弱い教師付き学習シナリオに適用できる。
- 参考スコア(独自算出の注目度): 50.57424331797865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning has achieved remarkable success in learning effective representations, with supervised contrastive learning often outperforming self-supervised approaches. However, in real-world scenarios, data annotations are often ambiguous or inaccurate, meaning that class labels may not reliably indicate whether two examples belong to the same class. This limitation restricts the applicability of supervised contrastive learning. To address this challenge, we introduce the concept of ``continuous semantic similarity'' to define positive and negative pairs. Instead of directly relying on imprecise class labels, we measure the semantic similarity between example pairs, which quantifies how closely they belong to the same category by iteratively refining weak supervisory signals. Based on this concept, we propose a graph-theoretic framework for weakly-supervised contrastive learning, where semantic similarity serves as the graph weights. Our framework is highly versatile and can be applied to many weakly-supervised learning scenarios. We demonstrate its effectiveness through experiments in two common settings, i.e., noisy label and partial label learning, where existing methods can be easily integrated to significantly improve performance. Theoretically, we establish an error bound for our approach, showing that it can approximate supervised contrastive learning under mild conditions. The implementation code is available at https://github.com/Speechless-10308/WSC.
- Abstract(参考訳): コントラスト学習は効果的な表現の学習において顕著な成功を収めており、教師付きコントラスト学習は自己指導的アプローチよりも優れている。
しかし、実世界のシナリオでは、データアノテーションは曖昧か不正確な場合が多いため、クラスラベルは2つの例が同じクラスに属しているかどうかを確実に示さない可能性がある。
この制限は、教師付きコントラスト学習の適用性を制限する。
この課題に対処するために、正対と負対を定義するために ``連続的意味的類似'' の概念を導入する。
不正確なクラスラベルを直接依存するのではなく、サンプルペア間の意味的類似度を測定し、弱いオーバシィ信号を反復的に精製することで、それらが同じカテゴリに属するかを定量化する。
この概念に基づいて,意味的類似性がグラフ重みとして機能する,弱教師付きコントラスト学習のためのグラフ理論フレームワークを提案する。
我々のフレームワークは非常に多用途であり、多くの弱い教師付き学習シナリオに適用できる。
提案手法は,ノイズラベルと部分ラベル学習という2つの一般的な設定で実験を行い,その効果を実証する。
理論的には,提案手法の誤り境界を確立し,軽度条件下で教師付きコントラスト学習を近似できることを示す。
実装コードはhttps://github.com/Speechless-10308/WSCで公開されている。
関連論文リスト
- Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - Semantic-aware Contrastive Learning for More Accurate Semantic Parsing [32.74456368167872]
そこで本研究では,意味表現の微粒化を学習できる意味認識型コントラスト学習アルゴリズムを提案する。
2つの標準データセットの実験により、我々の手法はMLEベースラインよりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2023-01-19T07:04:32Z) - Similarity Contrastive Estimation for Self-Supervised Soft Contrastive
Learning [0.41998444721319206]
優れたデータ表現は、インスタンス間の関係、つまり意味的類似性を含んでいる、と我々は主張する。
類似性コントラスト推定(SCE)と呼ばれるインスタンス間の意味的類似性を用いたコントラスト学習の新しい定式化を提案する。
我々の訓練対象はソフトコントラスト学習と見なすことができる。
論文 参考訳(メタデータ) (2021-11-29T15:19:15Z) - A Theory-Driven Self-Labeling Refinement Method for Contrastive
Representation Learning [111.05365744744437]
教師なしのコントラスト学習は、正のイメージの作物と、負のイメージの作物とをラベル付けする。
本研究は, コントラスト学習において, 不正確なラベル割り当てがセマンティック・インスタンス識別の一般化を著しく損なうことを最初に証明する。
この理論に触発されて、コントラスト学習のための新しい自己ラベル改善手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T14:24:52Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Debiased Contrastive Learning [64.98602526764599]
我々は,同ラベルデータポイントのサンプリングを補正する,偏りのあるコントラスト目的の開発を行う。
実証的に、提案する目的は、視覚、言語、強化学習ベンチマークにおける表現学習の最先端を一貫して上回る。
論文 参考訳(メタデータ) (2020-07-01T04:25:24Z) - Rethinking Class Relations: Absolute-relative Supervised and
Unsupervised Few-shot Learning [157.62595449130973]
本稿では,現在の数ショット学習法における単純化型クラスモデリングの基本的問題について検討する。
本稿では,ラベル情報をフル活用して画像表現を洗練するための,絶対相対学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-01-12T12:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。