論文の概要: Expand Globally, Shrink Locally: Discriminant Multi-label Learning with
Missing Labels
- arxiv url: http://arxiv.org/abs/2004.03951v2
- Date: Wed, 16 Feb 2022 07:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 08:19:01.880998
- Title: Expand Globally, Shrink Locally: Discriminant Multi-label Learning with
Missing Labels
- Title(参考訳): グローバルに拡大し, 局所的に Shrink: ラベルを欠いた差別的なマルチラベル学習
- Authors: Zhongchen Ma and Songcan Chen
- Abstract要約: 本稿では,欠落したラベルを学習するための識別型マルチラベル学習法(DM2L)を提案する。
具体的には、同一ラベルからの全てのインスタンスの予測に対して、低ランク構造を課す。
我々の手法は依然として最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 25.024207776469773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multi-label learning, the issue of missing labels brings a major
challenge. Many methods attempt to recovery missing labels by exploiting
low-rank structure of label matrix. However, these methods just utilize global
low-rank label structure, ignore both local low-rank label structures and label
discriminant information to some extent, leaving room for further performance
improvement. In this paper, we develop a simple yet effective discriminant
multi-label learning (DM2L) method for multi-label learning with missing
labels. Specifically, we impose the low-rank structures on all the predictions
of instances from the same labels (local shrinking of rank), and a maximally
separated structure (high-rank structure) on the predictions of instances from
different labels (global expanding of rank). In this way, these imposed
low-rank structures can help modeling both local and global low-rank label
structures, while the imposed high-rank structure can help providing more
underlying discriminability. Our subsequent theoretical analysis also supports
these intuitions. In addition, we provide a nonlinear extension via using
kernel trick to enhance DM2L and establish a concave-convex objective to learn
these models. Compared to the other methods, our method involves the fewest
assumptions and only one hyper-parameter. Even so, extensive experiments show
that our method still outperforms the state-of-the-art methods.
- Abstract(参考訳): マルチレーベル学習では、ラベルの欠如が大きな課題となる。
多くの手法がラベル行列の低ランク構造を利用して失ったラベルを復元しようとする。
しかし、これらの手法は単にグローバル低ランクのラベル構造を使い、局所低ランクのラベル構造とラベルの識別情報の両方をある程度無視し、さらなるパフォーマンス改善の余地を残している。
本稿では,ラベルを欠くマルチラベル学習のための,シンプルだが効果的な識別型マルチラベル学習法を提案する。
具体的には、同一ラベルからの全てのインスタンスの予測(ランクの局所縮小)にローランク構造を課し、異なるラベルからのインスタンスの予測(ランクのグローバル展開)に最大分離された構造(ハイランク構造)を課す。
このようにして、これらの低ランク構造は、局所的およびグローバルな低ランクのラベル構造の両方をモデル化するのに役立ちます。
その後の理論的分析もこれらの直観を支持している。
さらに,dm2lの拡張のためにカーネルトリックを用いて非線形拡張を行い,これらのモデルを学ぶための凹凸目標を確立する。
他の手法と比較して、本手法は最小の仮定と1つのハイパーパラメータのみを含む。
それでも,本手法が最先端の手法よりも優れていることを示す広範な実験を行った。
関連論文リスト
- Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels [8.977819892091]
マルチラベル分類は、複数のクラスにインスタンスを関連付けることができる日常生活において、広く発生する問題である。
本研究では,ラベルの不均衡の問題に対処し,部分ラベルを用いたニューラルネットワークのトレーニング方法について検討する。
論文 参考訳(メタデータ) (2023-07-31T21:50:48Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - An Effective Approach for Multi-label Classification with Missing Labels [8.470008570115146]
分類ネットワークにさらなる複雑さをもたらすことなく、アノテーションのコストを削減するための擬似ラベルベースのアプローチを提案する。
新たな損失関数を設計することにより、各インスタンスが少なくとも1つの正のラベルを含む必要があるという要求を緩和することができる。
提案手法は,正のラベルと負のラベルの不均衡を扱える一方で,既存の欠落ラベル学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-24T23:13:57Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Multilabel Classification by Hierarchical Partitioning and
Data-dependent Grouping [33.48217977134427]
ラベルベクトルの空間性と階層構造を利用して、それらを低次元空間に埋め込む。
我々は、低ランク非負行列因子化に基づくグループ構成を用いる、新しいデータ依存型グループ化手法を提案する。
次に、大規模問題におけるラベル階層を利用して、大きなラベル空間を分割し、より小さなサブプロブレムを生成する階層的分割手法を提案する。
論文 参考訳(メタデータ) (2020-06-24T22:23:39Z) - Structured Prediction with Partial Labelling through the Infimum Loss [85.4940853372503]
弱い監督の目標は、収集コストの安いラベル付け形式のみを使用してモデルを学習できるようにすることである。
これは、各データポイントに対して、実際のものを含むラベルのセットとして、監督がキャストされる不完全なアノテーションの一種です。
本稿では、構造化された予測と、部分的なラベリングを扱うための無限損失の概念に基づく統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-03-02T13:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。