論文の概要: CLCIFAR: CIFAR-Derived Benchmark Datasets with Human Annotated
Complementary Labels
- arxiv url: http://arxiv.org/abs/2305.08295v1
- Date: Mon, 15 May 2023 01:48:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 16:28:04.785952
- Title: CLCIFAR: CIFAR-Derived Benchmark Datasets with Human Annotated
Complementary Labels
- Title(参考訳): CLCIFAR: 注釈付き補完ラベルを用いたCIFAR-Derivedベンチマークデータセット
- Authors: Hsiu-Hsuan Wang, Wei-I Lin, Hsuan-Tien Lin
- Abstract要約: 弱い教師付き学習パラダイムとして、補完ラベル学習(CLL)は、補完ラベルのみから多クラス分類器を学習することを目的としている。
人間のアノテーションプロセスから発生するノイズやバイアスがこれらのCLLアルゴリズムにどのように影響するかは、まだ不明である。
収集したデータセットの経験的遷移行列を分析し,ノイズや偏りを観察する。
そこで我々は,既存のアルゴリズムが実世界の補完的データセットから学べるかどうかを検証するために,さまざまなCLLアルゴリズムを用いて収集されたデータセットの広範なベンチマーク実験を行った。
- 参考スコア(独自算出の注目度): 13.404403192353326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a weakly-supervised learning paradigm, complementary label learning (CLL)
aims to learn a multi-class classifier from only complementary labels, classes
to which an instance does not belong. Despite various studies have addressed
how to learn from CLL, those methods typically rely on some distributional
assumptions on the complementary labels, and are benchmarked only on some
synthetic datasets. It remains unclear how the noise or bias arising from the
human annotation process would affect those CLL algorithms. To fill the gap, we
design a protocol to collect complementary labels annotated by human. Two
datasets, CLCIFAR10 and CLCIFAR20, based on CIFAR10 and CIFAR100, respectively,
are collected. We analyzed the empirical transition matrices of the collected
datasets, and observed that they are noisy and biased. We then performed
extensive benchmark experiments on the collected datasets with various CLL
algorithms to validate whether the existing algorithms can learn from the
real-world complementary datasets. The dataset can be accessed with the
following link: https://github.com/ntucllab/complementary_cifar.
- Abstract(参考訳): 弱教師付き学習パラダイムとして、補足ラベル学習(cll)は、インスタンスが属さないクラスである補足ラベルのみから多クラス分類を学習することを目的としている。
様々な研究がCLLからどのように学習するかを論じているが、これらの手法は典型的には相補的なラベルの分布的な仮定に依存し、いくつかの合成データセットにのみベンチマークされる。
人間のアノテーションプロセスから発生するノイズやバイアスがこれらのCLLアルゴリズムにどのように影響するかは、まだ不明である。
このギャップを埋めるために、人間によって注釈された補完ラベルを収集するプロトコルをデザインする。
CIFAR10とCIFAR100に基づく2つのデータセットCLCIFAR10とCLCIFAR20を収集する。
収集したデータセットの経験的遷移行列を解析し,ノイズとバイアスが認められた。
次に,実世界の補完的データセットから既存のアルゴリズムが学習できるかどうかを検証するために,様々なcllアルゴリズムを用いて収集したデータセットに対する広範なベンチマーク実験を行った。
https://github.com/ntucllab/complementary_cifar.com/ というリンクでデータセットにアクセスできます。
関連論文リスト
- libcll: an Extendable Python Toolkit for Complementary-Label Learning [8.335164415521838]
補完ラベル学習(Complementary-label Learning, CLL)は、多クラス分類のための弱い教師付き学習パラダイムである。
textttlibcllはCLL研究用のPythonツールキットである。
textttlibcllは、幅広い世代の仮定をサポートする普遍的なインターフェースを提供する。
論文 参考訳(メタデータ) (2024-11-19T06:56:24Z) - Enhancing Label Sharing Efficiency in Complementary-Label Learning with
Label Augmentation [92.4959898591397]
学習中に近隣の事例における補完ラベルの暗黙的な共有を分析した。
相補的なラベル拡張による共有効率を向上させる新しい手法を提案する。
実験結果から,従来のCLLモデルよりも相補的ラベル拡張により経験的性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-05-15T04:43:14Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - The CLEAR Benchmark: Continual LEArning on Real-World Imagery [77.98377088698984]
連続学習(CL)は、生涯AIにとって重要な課題であると考えられている。
本稿では,視覚概念の自然な時間進化を伴う最初の連続画像分類ベンチマークであるCLEARを紹介する。
単純な教師なし事前学習のステップで、最先端のCLアルゴリズムがすでに強化されていることが分かりました。
論文 参考訳(メタデータ) (2022-01-17T09:09:09Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。