論文の概要: Compact Learning for Multi-Label Classification
- arxiv url: http://arxiv.org/abs/2009.08607v1
- Date: Fri, 18 Sep 2020 03:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:22:54.345934
- Title: Compact Learning for Multi-Label Classification
- Title(参考訳): マルチラベル分類のためのコンパクト学習
- Authors: Jiaqi Lv, Tianran Wu, Chenglun Peng, Yunpeng Liu, Ning Xu, Xin Geng
- Abstract要約: マルチラベル分類(MLC)は、各インスタンスが複数の関連するラベルと関連付けられており、出力空間の指数的な成長につながる問題を研究する。
特徴とラベルを同時に埋め込み,相互指導を行うためのコンパクトラーニング(CL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 39.48480365166234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-label classification (MLC) studies the problem where each instance is
associated with multiple relevant labels, which leads to the exponential growth
of output space. MLC encourages a popular framework named label compression
(LC) for capturing label dependency with dimension reduction. Nevertheless,
most existing LC methods failed to consider the influence of the feature space
or misguided by original problematic features, so that may result in
performance degeneration. In this paper, we present a compact learning (CL)
framework to embed the features and labels simultaneously and with mutual
guidance. The proposal is a versatile concept, hence the embedding way is
arbitrary and independent of the subsequent learning process. Following its
spirit, a simple yet effective implementation called compact multi-label
learning (CMLL) is proposed to learn a compact low-dimensional representation
for both spaces. CMLL maximizes the dependence between the embedded spaces of
the labels and features, and minimizes the loss of label space recovery
concurrently. Theoretically, we provide a general analysis for different
embedding methods. Practically, we conduct extensive experiments to validate
the effectiveness of the proposed method.
- Abstract(参考訳): マルチラベル分類(MLC)は、各インスタンスが複数の関連するラベルと関連付けられており、出力空間の指数的な成長につながる問題を研究する。
MLCは、ラベル依存を次元の縮小で捉えるために、ラベル圧縮(LC)と呼ばれる一般的なフレームワークを奨励する。
しかし、既存のLC法のほとんどは、特徴空間の影響を考慮しなかったり、元の問題のある特徴に誤認されたりすることで、性能劣化をもたらす可能性がある。
本稿では,特徴とラベルを同時に埋め込み,相互指導を行うためのコンパクト学習(CL)フレームワークを提案する。
この提案は汎用的な概念であるため、埋め込み方式は任意であり、その後の学習プロセスとは独立である。
両空間のコンパクトな低次元表現を学習するために,CMLL(Compact Multi-label Learning)と呼ばれるシンプルな実装を提案する。
CMLLはラベルと特徴の埋め込み空間間の依存性を最大化し、ラベル空間回復の損失を同時に最小化する。
理論的には、異なる埋め込みメソッドに対する一般的な分析を提供する。
実際,提案手法の有効性を検証するために広範な実験を行った。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - Scalable Label Distribution Learning for Multi-Label Classification [43.52928088881866]
マルチラベル分類(MLC、Multi-label classification)とは、あるインスタンスに関連ラベルのセットをタグ付けする問題を指す。
既存のMLC法の多くは、ラベルペア内の2つのラベルの相関が対称であるという仮定に基づいている。
既存のほとんどの手法はラベル数に関連する学習プロセスを設計しており、大規模な出力空間にスケールアップする際の計算複雑性をボトルネックにしている。
論文 参考訳(メタデータ) (2023-11-28T06:52:53Z) - Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels [8.977819892091]
マルチラベル分類は、複数のクラスにインスタンスを関連付けることができる日常生活において、広く発生する問題である。
本研究では,ラベルの不均衡の問題に対処し,部分ラベルを用いたニューラルネットワークのトレーニング方法について検討する。
論文 参考訳(メタデータ) (2023-07-31T21:50:48Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - FLAG: Fast Label-Adaptive Aggregation for Multi-label Classification in
Federated Learning [1.4280238304844592]
本研究では,クラスタリングに基づくマルチラベルデータアロケーション(CMDA)と,新たな集約手法であるFast Label-Adaptive Aggregation(FLAG)を提案する。
実験の結果,我々の手法は,最先端のフェデレーション学習手法を超越するために,学習エポックとコミュニケーションラウンドの50%未満しか必要としないことがわかった。
論文 参考訳(メタデータ) (2023-02-27T08:16:39Z) - Multi-Instance Partial-Label Learning: Towards Exploiting Dual Inexact
Supervision [53.530957567507365]
実世界のタスクでは、各トレーニングサンプルは、1つの基底真実ラベルといくつかの偽陽性ラベルを含む候補ラベルセットに関連付けられている。
本稿では,Multi-instance partial-label learning (MIPL) などの問題を定式化する。
既存のマルチインスタンス学習アルゴリズムと部分ラベル学習アルゴリズムはMIPL問題の解法に最適である。
論文 参考訳(メタデータ) (2022-12-18T03:28:51Z) - Learning Disentangled Label Representations for Multi-label
Classification [39.97251974500034]
One-Shared-Feature-for-Multiple-Labels (OFML) は識別ラベルの特徴を学習するのに役立ちません。
我々は,One-specific-Feature-for-One-Label(OFOL)機構を導入し,新しいアンタングル付きラベル特徴学習フレームワークを提案する。
8つのデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-12-02T21:49:34Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Active Refinement for Multi-Label Learning: A Pseudo-Label Approach [84.52793080276048]
MLL(Multi-label Learning)は、あるインスタンスと関連するラベルを一連の概念から関連付けることを目的としている。
MLLの以前の研究は、主に概念セットが修正されると思われる設定に焦点を当てていた。
多くの現実世界のアプリケーションは、新しい要求を満たすために新しい概念をセットに導入する必要がある。
論文 参考訳(メタデータ) (2021-09-29T19:17:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。