論文の概要: Online probabilistic label trees
- arxiv url: http://arxiv.org/abs/2007.04451v2
- Date: Fri, 26 Mar 2021 14:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 12:41:14.233222
- Title: Online probabilistic label trees
- Title(参考訳): オンライン確率ラベルツリー
- Authors: Kalina Jasinska-Kobus, Marek Wydmuch, Devanathan Thiruvenkatachari,
Krzysztof Dembczy\'nski
- Abstract要約: OPLTは、時間と空間の複雑さの低さと強力な理論的保証によって特徴づけられる。
オンラインのマルチラベルとマルチクラスの分類に使用することができる。
- 参考スコア(独自算出の注目度): 5.694890215546457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce online probabilistic label trees (OPLTs), an algorithm that
trains a label tree classifier in a fully online manner without any prior
knowledge about the number of training instances, their features and labels.
OPLTs are characterized by low time and space complexity as well as strong
theoretical guarantees. They can be used for online multi-label and multi-class
classification, including the very challenging scenarios of one- or few-shot
learning. We demonstrate the attractiveness of OPLTs in a wide empirical study
on several instances of the tasks mentioned above.
- Abstract(参考訳): オンライン確率ラベルツリー(OPLT)は,トレーニングインスタンスの数,特徴,ラベルに関する事前知識を必要とせず,完全にオンライン的にラベル木分類器を訓練するアルゴリズムである。
opltは、低時間と空間の複雑さと強い理論的保証によって特徴づけられる。
オンラインのマルチラベルとマルチクラスの分類に使用することができる。
本稿では, OPLTの魅力を, 上述した課題のいくつかについて, 広範な実証的研究で示す。
関連論文リスト
- LC-Protonets: Multi-label Few-shot learning for world music audio tagging [65.72891334156706]
ラベル結合型プロトタイプネットワーク(LC-Protonets)を導入し,複数ラベルの複数ショット分類の問題に対処する。
LC-Protonetsは、限られたトレーニング項目に存在するラベルのパワーセットから、ラベルの組み合わせごとに1つのプロトタイプを生成する。
本手法は,様々な文化をカバーし,現代音楽と伝統音楽の両方を含む,多様な音楽データセットにまたがる自動音声タグ付けに適用する。
論文 参考訳(メタデータ) (2024-09-17T15:13:07Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - An Effective Approach for Multi-label Classification with Missing Labels [8.470008570115146]
分類ネットワークにさらなる複雑さをもたらすことなく、アノテーションのコストを削減するための擬似ラベルベースのアプローチを提案する。
新たな損失関数を設計することにより、各インスタンスが少なくとも1つの正のラベルを含む必要があるという要求を緩和することができる。
提案手法は,正のラベルと負のラベルの不均衡を扱える一方で,既存の欠落ラベル学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-24T23:13:57Z) - A Multi-label Continual Learning Framework to Scale Deep Learning
Approaches for Packaging Equipment Monitoring [57.5099555438223]
連続シナリオにおけるマルチラベル分類を初めて研究した。
タスク数に関して対数的複雑性を持つ効率的なアプローチを提案する。
我々は,包装業界における実世界のマルチラベル予測問題に対するアプローチを検証した。
論文 参考訳(メタデータ) (2022-08-08T15:58:39Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Interpretation of multi-label classification models using shapley values [0.5482532589225552]
本研究は,shap法を用いて,マルチラベル分類タスクの説明をさらに拡張する。
この実験は、よく知られたマルチラベルデータセット上の異なるアルゴリズムの包括的な比較を示す。
論文 参考訳(メタデータ) (2021-04-21T12:51:12Z) - Online Active Model Selection for Pre-trained Classifiers [72.84853880948894]
我々は,任意のラウンドにおいて高い確率で最良のモデルをラベル付けし,出力する情報的サンプルを積極的に選択するオンライン選択的サンプリング手法を設計する。
我々のアルゴリズムは、敵とストリームの両方のオンライン予測タスクに利用できる。
論文 参考訳(メタデータ) (2020-10-19T19:53:15Z) - Probabilistic Label Trees for Extreme Multi-label Classification [8.347190888362194]
極端なマルチラベル分類(XMLC)の問題は,木としてラベルを整理することで効率的に処理される。
PLTは多ラベル問題に対する階層的ソフトマックスの一般化として扱うことができる。
このモデルを導入し、トレーニングと推論手順とその計算コストについて論じる。
完全にオンラインのアルゴリズムと木構造を持つアルゴリズムとの間には,特定の等価性があることを実証する。
論文 参考訳(メタデータ) (2020-09-23T15:30:00Z) - Online Metric Learning for Multi-Label Classification [22.484707213499714]
マルチラベル分類のための新しいオンラインメトリック学習パラダイムを提案する。
我々はまず,$k$-Nearest Neighbour(k$NN)に基づくマルチラベル分類のための新しい指標を提案する。
論文 参考訳(メタデータ) (2020-06-12T11:33:04Z) - Interaction Matching for Long-Tail Multi-Label Classification [57.262792333593644]
既存のマルチラベル分類モデルにおいて,制約に対処するためのエレガントで効果的なアプローチを提案する。
ソフトなn-gram相互作用マッチングを実行することで、ラベルと自然言語記述をマッチングする。
論文 参考訳(メタデータ) (2020-05-18T15:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。