論文の概要: Imprecise Label Learning: A Unified Framework for Learning with Various
Imprecise Label Configurations
- arxiv url: http://arxiv.org/abs/2305.12715v3
- Date: Fri, 29 Sep 2023 06:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 18:45:25.936986
- Title: Imprecise Label Learning: A Unified Framework for Learning with Various
Imprecise Label Configurations
- Title(参考訳): 不正確ラベル学習:不正確ラベル構成を用いた統一学習フレームワーク
- Authors: Hao Chen, Ankit Shah, Jindong Wang, Ran Tao, Yidong Wang, Xing Xie,
Masashi Sugiyama, Rita Singh, Bhiksha Raj
- Abstract要約: imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
- 参考スコア(独自算出の注目度): 95.12263518034939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with reduced labeling standards, such as noisy label, partial label,
and multiple label candidates, which we generically refer to as
\textit{imprecise} labels, is a commonplace challenge in machine learning
tasks. Previous methods tend to propose specific designs for every emerging
imprecise label configuration, which is usually unsustainable when multiple
configurations of imprecision coexist. In this paper, we introduce imprecise
label learning (ILL), a framework for the unification of learning with various
imprecise label configurations. ILL leverages expectation-maximization (EM) for
modeling the imprecise label information, treating the precise labels as latent
variables.Instead of approximating the correct labels for training, it
considers the entire distribution of all possible labeling entailed by the
imprecise information. We demonstrate that ILL can seamlessly adapt to partial
label learning, semi-supervised learning, noisy label learning, and, more
importantly, a mixture of these settings. Notably, ILL surpasses the existing
specified techniques for handling imprecise labels, marking the first unified
framework with robust and effective performance across various challenging
settings. We hope our work will inspire further research on this topic,
unleashing the full potential of ILL in wider scenarios where precise labels
are expensive and complicated to obtain.
- Abstract(参考訳): 一般に「textit{imprecise} labels」と呼ぶ、ノイズラベルや部分ラベル、複数ラベル候補などのラベリング標準を減らした学習は、機械学習タスクにおいて一般的な課題である。
従来の手法では、創発的な不正確なラベル構成ごとに特定の設計を提案する傾向があり、複数の不正確な共存構成の場合、通常は持続不可能である。
本稿では,不正確なラベル構成で学習を統一するためのフレームワークである不正確なラベル学習(ILL)を紹介する。
illは、不正確なラベル情報をモデル化し、正確なラベルを潜在変数として扱うために、期待最大化(em)を利用する。
illは部分的ラベル学習、半教師付き学習、ノイズの多いラベル学習、そしてもっと重要なことに、これらの設定の混合にシームレスに適応できることを実証する。
特にILLは、不正確なラベルを扱うための既存の特定のテクニックを超越しており、様々な困難な設定で堅牢で効果的なパフォーマンスを持つ最初の統一フレームワークである。
私たちの研究がこのトピックに関するさらなる研究を刺激し、正確なラベルが高価で入手が難しい、より広いシナリオで病気の完全な可能性を解き放つことを期待しています。
関連論文リスト
- Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels [8.977819892091]
マルチラベル分類は、複数のクラスにインスタンスを関連付けることができる日常生活において、広く発生する問題である。
本研究では,ラベルの不均衡の問題に対処し,部分ラベルを用いたニューラルネットワークのトレーニング方法について検討する。
論文 参考訳(メタデータ) (2023-07-31T21:50:48Z) - Exploring Structured Semantic Prior for Multi Label Recognition with
Incomplete Labels [60.675714333081466]
不完全なラベルを持つマルチラベル認識(MLR)は非常に難しい。
最近の研究は、視覚言語モデルであるCLIPにおける画像とラベルの対応を探り、不十分なアノテーションを補うことを目指している。
我々は,MLRにおけるラベル管理の欠如を,構造化されたセマンティクスを導出することにより,不完全なラベルで修復することを提唱する。
論文 参考訳(メタデータ) (2023-03-23T12:39:20Z) - PLMCL: Partial-Label Momentum Curriculum Learning for Multi-Label Image
Classification [25.451065364433028]
マルチラベル画像分類は、画像内の全ての可能なラベルを予測することを目的としている。
既存の部分ラベル学習の研究は、各トレーニングイメージがラベルのサブセットでアノテートされている場合に焦点を当てている。
本稿では,トレーニング画像のサブセットのみをラベル付けした新たな部分ラベル設定を提案する。
論文 参考訳(メタデータ) (2022-08-22T01:23:08Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Cost-Accuracy Aware Adaptive Labeling for Active Learning [9.761953860259942]
多くの実環境において、異なるラベルには異なるラベルのコストがあり、異なるラベルの精度が得られる。
本稿では, インスタンス, ラベル付け者と対応するコストを選択し, ラベル付け精度を向上するための新しいアルゴリズムを提案する。
提案アルゴリズムは,5つのUCIおよび実際のクラウドソーシングデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-05-24T17:21:00Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z) - Learning Soft Labels via Meta Learning [3.4852307714135375]
シングルホットラベルは概念間のソフトな決定境界を表現していないため、トレーニングされたモデルは過度に適合する傾向にある。
そこで我々は,ラベルを学習可能なパラメータとして扱い,モデルパラメータとともに最適化するフレームワークを提案する。
本研究では, 学習ラベルがクラス間の意味的関係を捉え, 蒸留の下流作業における教師モデルを改善することを示す。
論文 参考訳(メタデータ) (2020-09-20T18:42:13Z) - Learning to Purify Noisy Labels via Meta Soft Label Corrector [49.92310583232323]
最近のディープニューラルネットワーク(DNN)は、ノイズラベルによるバイアス付きトレーニングデータに容易に適合する。
ラベル修正戦略はこの問題を軽減するために一般的に用いられる。
メタ学習モデルを提案する。
論文 参考訳(メタデータ) (2020-08-03T03:25:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。