論文の概要: Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels
- arxiv url: http://arxiv.org/abs/2308.00166v1
- Date: Mon, 31 Jul 2023 21:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 16:10:46.482442
- Title: Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels
- Title(参考訳): 部分注釈ラベルを用いた大規模マルチラベル分類の非バランス化に向けて
- Authors: XIn Zhang and Yuqi Song and Fei Zuo and Xiaofeng Wang
- Abstract要約: マルチラベル分類は、複数のクラスにインスタンスを関連付けることができる日常生活において、広く発生する問題である。
本研究では,ラベルの不均衡の問題に対処し,部分ラベルを用いたニューラルネットワークのトレーニング方法について検討する。
- 参考スコア(独自算出の注目度): 8.977819892091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-label classification is a widely encountered problem in daily life,
where an instance can be associated with multiple classes. In theory, this is a
supervised learning method that requires a large amount of labeling. However,
annotating data is time-consuming and may be infeasible for huge labeling
spaces. In addition, label imbalance can limit the performance of multi-label
classifiers, especially when some labels are missing. Therefore, it is
meaningful to study how to train neural networks using partial labels. In this
work, we address the issue of label imbalance and investigate how to train
classifiers using partial labels in large labeling spaces. First, we introduce
the pseudo-labeling technique, which allows commonly adopted networks to be
applied in partially labeled settings without the need for additional complex
structures. Then, we propose a novel loss function that leverages statistical
information from existing datasets to effectively alleviate the label imbalance
problem. In addition, we design a dynamic training scheme to reduce the
dimension of the labeling space and further mitigate the imbalance. Finally, we
conduct extensive experiments on some publicly available multi-label datasets
such as COCO, NUS-WIDE, CUB, and Open Images to demonstrate the effectiveness
of the proposed approach. The results show that our approach outperforms
several state-of-the-art methods, and surprisingly, in some partial labeling
settings, our approach even exceeds the methods trained with full labels.
- Abstract(参考訳): マルチラベル分類は日常生活において広く遭遇する問題であり、インスタンスは複数のクラスに関連付けられる。
理論的には、これは大量のラベリングを必要とする教師付き学習方法である。
しかし、アノテートデータは時間がかかり、巨大なラベル空間では利用できない可能性がある。
さらに、ラベルの不均衡は、特にラベルが欠落している場合、マルチラベル分類器の性能を制限できる。
したがって、部分ラベルを用いたニューラルネットワークのトレーニング方法を研究することは有意義である。
本研究では,ラベルの不均衡の問題に対処し,大規模ラベル空間における部分ラベルを用いた分類器の訓練方法を検討する。
まず,複雑な構造を必要とせず,部分的にラベル付けされた設定で広く採用されているネットワークを適用可能にする擬似ラベル方式を提案する。
そこで,既存のデータセットからの統計情報を有効活用し,ラベル不均衡問題を効果的に解消する新しい損失関数を提案する。
さらに,ラベリング空間の次元を低減し,さらに不均衡を緩和するための動的トレーニングスキームを設計する。
最後に,coco,nus-wide,cub,open imagesなどの公開されているマルチラベルデータセットについて広範な実験を行い,提案手法の有効性を実証した。
その結果,本手法は最先端手法よりも優れており,いくつかの部分ラベル設定では,完全なラベルで訓練された手法を超越する効果もみられた。
関連論文リスト
- Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Complementary to Multiple Labels: A Correlation-Aware Correction
Approach [65.59584909436259]
理論上, マルチクラスCLLにおける遷移行列が, 複数ラベルの場合どのように歪むかを示す。
候補ラベルから遷移行列を推定する2段階の手法を提案する。
論文 参考訳(メタデータ) (2023-02-25T04:48:48Z) - Learning from Stochastic Labels [8.178975818137937]
マルチクラスインスタンスのアノテーションは、機械学習の分野で重要なタスクである。
本稿では,これらのラベルから学習するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-01T08:04:27Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - An Effective Approach for Multi-label Classification with Missing Labels [8.470008570115146]
分類ネットワークにさらなる複雑さをもたらすことなく、アノテーションのコストを削減するための擬似ラベルベースのアプローチを提案する。
新たな損失関数を設計することにより、各インスタンスが少なくとも1つの正のラベルを含む必要があるという要求を緩和することができる。
提案手法は,正のラベルと負のラベルの不均衡を扱える一方で,既存の欠落ラベル学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-24T23:13:57Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Multi-Label Learning from Single Positive Labels [37.17676289125165]
与えられた画像に対して適用可能なラベルを全て予測することは、マルチラベル分類(multi-label classification)として知られている。
その結果,ラベルの確認が著しく少ないにもかかわらず,完全ラベル付き分類器の性能にアプローチできることが示唆された。
論文 参考訳(メタデータ) (2021-06-17T17:58:04Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。