論文の概要: Learning with Multiple Complementary Labels
- arxiv url: http://arxiv.org/abs/1912.12927v4
- Date: Sat, 6 Aug 2022 10:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:05:33.778837
- Title: Learning with Multiple Complementary Labels
- Title(参考訳): 複数ラベルによる学習
- Authors: Lei Feng, Takuo Kaneko, Bo Han, Gang Niu, Bo An, Masashi Sugiyama
- Abstract要約: 補ラベル(CL)は、単に例の不正なクラスを示すが、CLで学習すると、多クラス分類器が生成される。
そこで本研究では,MCLを各例に示すための新しい問題設定と,MCLを学習するための2つの方法を提案する。
- 参考スコア(独自算出の注目度): 94.8064553345801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A complementary label (CL) simply indicates an incorrect class of an example,
but learning with CLs results in multi-class classifiers that can predict the
correct class. Unfortunately, the problem setting only allows a single CL for
each example, which notably limits its potential since our labelers may easily
identify multiple CLs (MCLs) to one example. In this paper, we propose a novel
problem setting to allow MCLs for each example and two ways for learning with
MCLs. In the first way, we design two wrappers that decompose MCLs into many
single CLs, so that we could use any method for learning with CLs. However, the
supervision information that MCLs hold is conceptually diluted after
decomposition. Thus, in the second way, we derive an unbiased risk estimator;
minimizing it processes each set of MCLs as a whole and possesses an estimation
error bound. We further improve the second way into minimizing properly chosen
upper bounds. Experiments show that the former way works well for learning with
MCLs but the latter is even better.
- Abstract(参考訳): 補ラベル(CL)は単に例の不正なクラスを示すが、CLで学習すると、正しいクラスを予測できる複数のクラス分類器が得られる。
残念ながら、問題設定では各例に1つのCLしか使用できないため、ラベル付け者が簡単に複数のCL(MCL)を識別できるため、そのポテンシャルは特に制限される。
本稿では, MCL を各例に適用可能な新しい問題設定法と, MCL を学習するための2つの方法を提案する。
まず、MCLを複数の単一のCLに分解する2つのラッパーを設計し、CLで学習するためにどんな方法でも使えるようにした。
しかし、MCLが保持する監視情報は、分解後に概念的に希釈される。
したがって、2つ目の方法では、バイアスのないリスク推定器を導出し、MCLの集合を全体として処理し、推定誤差境界を持つように最小化する。
適切に選択された上限を最小化する第2の方法をさらに改善する。
実験によると、以前の方法はMCLで学ぶのにうまく機能するが、後者の方が優れている。
関連論文リスト
- Many-Shot In-Context Learning [58.395589302800566]
大規模言語モデル (LLMs) は、文脈内学習 (ICL) において優れている
我々は、多種多様な生成的および識別的タスクにおける顕著なパフォーマンス向上を観察する。
少数ショット学習とは異なり、多ショット学習は事前学習されたバイアスをオーバーライドするのに効果的である。
論文 参考訳(メタデータ) (2024-04-17T02:49:26Z) - CLAP4CLIP: Continual Learning with Probabilistic Finetuning for Vision-Language Models [23.398619576886375]
継続学習(CL)は、ディープラーニングが学習したものを保持しながら、新しい知識を学ぶのを支援することを目的としている。
タスクごとの視覚誘導テキスト機能に対する確率的モデリングフレームワークであるCLAP(Continuous LeArning with Probabilistic Finetuning)を提案する。
論文 参考訳(メタデータ) (2024-03-28T04:15:58Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - On the Generalization of Multi-modal Contrastive Learning [21.849681446573257]
MMCLがマルチモーダルペアから有用な視覚表現を抽出する方法について検討する。
テキストペアは、より意味論的に一貫性があり、多様な正のペアを誘導することを示す。
この発見に触発されて,イメージネット上でのSSCLのダウンストリーム性能を大幅に向上させるCLIP誘導再サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T09:13:56Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Beyond Supervised Continual Learning: a Review [69.9674326582747]
連続学習(Continuous Learning, CL)は、定常データ分布の通常の仮定を緩和または省略する機械学習のフレーバーである。
データ分布の変化は、いわゆる破滅的な忘れ(CF)効果、すなわち、過去の知識の突然の喪失を引き起こす可能性がある。
本稿では、CLを他の環境で研究する文献をレビューする。例えば、監督を減らした学習、完全に教師なしの学習、強化学習などである。
論文 参考訳(メタデータ) (2022-08-30T14:44:41Z) - Contrastive Learning with Adversarial Examples [79.39156814887133]
コントラスト学習(Contrastive Learning, CL)は、視覚表現の自己教師型学習(SSL)において一般的な手法である。
本稿では,コンストラクティブ・ラーニングのための新しい逆例群を紹介し,これらの例を用いてCLAEと表記されるSSLの新しい逆トレーニングアルゴリズムを定義する。
論文 参考訳(メタデータ) (2020-10-22T20:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。