論文の概要: Multi-Label Sampling based on Local Label Imbalance
- arxiv url: http://arxiv.org/abs/2005.03240v2
- Date: Tue, 19 May 2020 10:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:40:47.357814
- Title: Multi-Label Sampling based on Local Label Imbalance
- Title(参考訳): 局所ラベル不均衡に基づくマルチラベルサンプリング
- Authors: Bin Liu, Konstantinos Blekas, and Grigorios Tsoumakas
- Abstract要約: クラス不均衡は、ほとんどのマルチラベル学習方法を妨げるマルチラベルデータ固有の特徴である。
既存のマルチラベルサンプリングアプローチは、マルチラベルデータセットのグローバル不均衡を軽減する。
実際に、パフォーマンス劣化において重要な役割を果たすマイノリティクラス例の局所的な地区における不均衡レベルである。
- 参考スコア(独自算出の注目度): 7.355362369511579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class imbalance is an inherent characteristic of multi-label data that
hinders most multi-label learning methods. One efficient and flexible strategy
to deal with this problem is to employ sampling techniques before training a
multi-label learning model. Although existing multi-label sampling approaches
alleviate the global imbalance of multi-label datasets, it is actually the
imbalance level within the local neighbourhood of minority class examples that
plays a key role in performance degradation. To address this issue, we propose
a novel measure to assess the local label imbalance of multi-label datasets, as
well as two multi-label sampling approaches based on the local label imbalance,
namely MLSOL and MLUL. By considering all informative labels, MLSOL creates
more diverse and better labeled synthetic instances for difficult examples,
while MLUL eliminates instances that are harmful to their local region.
Experimental results on 13 multi-label datasets demonstrate the effectiveness
of the proposed measure and sampling approaches for a variety of evaluation
metrics, particularly in the case of an ensemble of classifiers trained on
repeated samples of the original data.
- Abstract(参考訳): クラス不均衡は、ほとんどのマルチラベル学習方法を妨げるマルチラベルデータの特徴である。
この問題に対処する効率的で柔軟な戦略の1つは、マルチラベル学習モデルをトレーニングする前にサンプリング技術を採用することである。
既存のマルチラベルサンプリングアプローチは、マルチラベルデータセットのグローバル不均衡を緩和するが、実際には、パフォーマンス低下において重要な役割を果たすマイノリティクラス例のローカル近傍における不均衡レベルである。
この問題に対処するため,マルチラベルデータセットの局所ラベル不均衡を評価するための新しい尺度を提案するとともに,ローカルラベル不均衡に基づく2つのマルチラベルサンプリング手法,すなわちMLULとMLULを提案する。
すべての情報ラベルを考慮することで、MLULはより多様な、より優れたラベル付き合成インスタンスを生成し、MLULはローカル領域に有害なインスタンスを除去する。
13のマルチラベルデータセットに対する実験結果から,提案手法の有効性と,様々な評価指標に対するサンプリング手法の有効性が示された。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Toward Robustness in Multi-label Classification: A Data Augmentation
Strategy against Imbalance and Noise [31.917931364881625]
マルチラベル分類は、トレーニングデータにおける不均衡なラベルとノイズの多いラベルによる課題を提起する。
本稿では,これらの課題に対処する統合データ拡張手法である BalanceMix を提案する。
提案手法には,不均衡ラベルに対する2つのサンプルが組み込まれ,多様性の高いマイノリティ拡張インスタンスが生成される。
論文 参考訳(メタデータ) (2023-12-12T09:09:45Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - An Effective Approach for Multi-label Classification with Missing Labels [8.470008570115146]
分類ネットワークにさらなる複雑さをもたらすことなく、アノテーションのコストを削減するための擬似ラベルベースのアプローチを提案する。
新たな損失関数を設計することにより、各インスタンスが少なくとも1つの正のラベルを含む必要があるという要求を緩和することができる。
提案手法は,正のラベルと負のラベルの不均衡を扱える一方で,既存の欠落ラベル学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-24T23:13:57Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Integrating Unsupervised Clustering and Label-specific Oversampling to
Tackle Imbalanced Multi-label Data [13.888344214818733]
クラスタリングは、マルチラベルデータセットの重要で局所的に接続された領域を見つけるために実行される。
クラスタ内の少数点のみが、オーバーサンプリングに使用される合成マイノリティ点を生成するために使用される。
12のマルチラベルデータセットと複数のマルチラベルアルゴリズムを用いた実験により,提案手法が良好に動作したことを示す。
論文 参考訳(メタデータ) (2021-09-25T19:00:00Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。