論文の概要: SoLar: Sinkhorn Label Refinery for Imbalanced Partial-Label Learning
- arxiv url: http://arxiv.org/abs/2209.10365v1
- Date: Wed, 21 Sep 2022 14:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 15:42:42.575555
- Title: SoLar: Sinkhorn Label Refinery for Imbalanced Partial-Label Learning
- Title(参考訳): SoLar:不均衡部分ラベル学習のためのシンクホーンラベル精製
- Authors: Haobo Wang, Mingxuan Xia, Yixuan Li, Yuren Mao, Lei Feng, Gang Chen,
Junbo Zhao
- Abstract要約: 部分ラベル学習(Partial-label Learning, PLL)は、トレーニングサンプルが一般に、単一の真実ではなく、一連の候補ラベルに関連付けられている、独特な弱い教師付き学習課題である。
本稿では,境界クラス事前分布のマッチングに向けて,曖昧なラベルを洗練するための新しいフレームワークであるSoLarを提案する。
SoLarは、従来の最先端の手法に比べて、標準化されたベンチマークにおいてかなり優れた結果を示している。
- 参考スコア(独自算出の注目度): 31.535219018410707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial-label learning (PLL) is a peculiar weakly-supervised learning task
where the training samples are generally associated with a set of candidate
labels instead of single ground truth. While a variety of label disambiguation
methods have been proposed in this domain, they normally assume a
class-balanced scenario that may not hold in many real-world applications.
Empirically, we observe degenerated performance of the prior methods when
facing the combinatorial challenge from the long-tailed distribution and
partial-labeling. In this work, we first identify the major reasons that the
prior work failed. We subsequently propose SoLar, a novel Optimal
Transport-based framework that allows to refine the disambiguated labels
towards matching the marginal class prior distribution. SoLar additionally
incorporates a new and systematic mechanism for estimating the long-tailed
class prior distribution under the PLL setup. Through extensive experiments,
SoLar exhibits substantially superior results on standardized benchmarks
compared to the previous state-of-the-art PLL methods. Code and data are
available at: https://github.com/hbzju/SoLar .
- Abstract(参考訳): 部分ラベル学習(Partial-label Learning, PLL)は、トレーニングサンプルが一般に、単一の真実ではなく、一連の候補ラベルに関連付けられている特殊な弱教師付き学習課題である。
このドメインでは様々なラベルの曖昧さ回避手法が提案されているが、それらは通常、多くの実世界のアプリケーションでは持たないクラスバランスのシナリオを想定している。
実験により,長い尾の分布と部分的なラベル付けによる組み合わせ課題に直面する場合,先行手法の劣化性能を実証した。
本研究では、まず、先行作業が失敗した主な理由を特定する。
次に,不曖昧なラベルを改良し,限界クラスの事前分布に適合させるための,新しい最適トランスポートベースフレームワークであるsolarを提案する。
SoLarはまた、PLLセットアップの下で長い尾のクラス事前分布を推定するための新しい、体系的なメカニズムも組み込んでいる。
大規模な実験を通じて、SoLarは従来の最先端のPLL法と比較して、標準化されたベンチマークにおいてかなり優れた結果を示す。
コードとデータは以下の通りである。
関連論文リスト
- Appeal: Allow Mislabeled Samples the Chance to be Rectified in Partial Label Learning [55.4510979153023]
部分ラベル学習(PLL)では、各インスタンスは候補ラベルのセットに関連付けられ、そのうち1つだけが接地真実である。
誤記されたサンプルの「アペアル」を支援するため,最初の魅力に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T09:09:52Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Pseudo Labels Regularization for Imbalanced Partial-Label Learning [11.93067260471484]
部分ラベル学習と長期学習の課題は、まともな境界分布と擬似ラベルの描画を一致させることである。
本手法は,ヘッドクラスの擬似ラベルを罰することにより,標準化されたベンチマークの下で最先端の手法を実装している。
論文 参考訳(メタデータ) (2023-03-06T15:21:55Z) - Long-Tailed Partial Label Learning via Dynamic Rebalancing [30.16563291182992]
実世界のデータは通常、ラベルの曖昧さと重い不均衡を兼ね備えている。
LTメソッドは、利用できないクラス分布の上に構築され、長い尾のコンテキストにおいて性能に大きく影響される。
本稿では,クラス分布に関する事前知識を仮定することなく,ReCORDSと呼ばれる動的再バランス手法を提案する。
論文 参考訳(メタデータ) (2023-02-10T06:43:53Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Progressive Purification for Instance-Dependent Partial Label Learning [37.65717805892473]
部分ラベル学習 (PLL) は、固定だが未知の候補ラベルが正しい候補ラベルのセットでアノテートされた例から、多クラス分類器を訓練することを目的としている。
候補ラベルは常にインスタンス依存であり、インスタンス依存の例で訓練されたモデルが理想的な例に収束できるという理論的保証はない。
本稿では,POP(PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification, PrOgressive Purification
論文 参考訳(メタデータ) (2022-06-02T02:07:12Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。