論文の概要: Imbalanced Multi-label Classification for Business-related Text with
Moderately Large Label Spaces
- arxiv url: http://arxiv.org/abs/2306.07046v1
- Date: Mon, 12 Jun 2023 11:51:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 14:48:31.452243
- Title: Imbalanced Multi-label Classification for Business-related Text with
Moderately Large Label Spaces
- Title(参考訳): 適度に大きいラベル空間を持つビジネス関連テキストの不均衡多ラベル分類
- Authors: Muhammad Arslan and Christophe Cruz
- Abstract要約: 我々は、特定の不均衡なビジネスデータセットを用いて、マルチラベルテキスト分類のための4つの異なる方法を評価した。
細調整されたBERTは、他の3つの手法よりもかなり優れており、精度の高い値が得られる。
これらの結果は,マルチラベルテキスト分類作業における細調整BERTの有効性を浮き彫りにし,企業にとって有用なツールである可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.30458514384586394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we compared the performance of four different methods for
multi label text classification using a specific imbalanced business dataset.
The four methods we evaluated were fine tuned BERT, Binary Relevance,
Classifier Chains, and Label Powerset. The results show that fine tuned BERT
outperforms the other three methods by a significant margin, achieving high
values of accuracy, F1 Score, Precision, and Recall. Binary Relevance also
performs well on this dataset, while Classifier Chains and Label Powerset
demonstrate relatively poor performance. These findings highlight the
effectiveness of fine tuned BERT for multi label text classification tasks, and
suggest that it may be a useful tool for businesses seeking to analyze complex
and multifaceted texts.
- Abstract(参考訳): 本研究では,特定の不均衡なビジネスデータセットを用いて,複数ラベルテキスト分類のための4つの手法の性能を比較した。
評価した4つの方法は、細調整されたBERT、バイナリ関連、分類チェイン、ラベルパワーセットである。
その結果,細調整BERTは,高い精度,F1スコア,精度,リコールを達成し,他の3つの手法よりも優れていた。
Binary Relevanceはこのデータセットでもよく機能し、Classifier ChainsとLabel Powersetは比較的低いパフォーマンスを示している。
これらの知見は,多言語テキスト分類タスクにおける細調整BERTの有効性を浮き彫りにし,複雑で多面的なテキスト分析を目指す企業にとって有用なツールである可能性が示唆された。
関連論文リスト
- Drawing the Same Bounding Box Twice? Coping Noisy Annotations in Object
Detection with Repeated Labels [6.872072177648135]
そこで本研究では,基礎的真理推定手法に適合する新しい局所化アルゴリズムを提案する。
また,本アルゴリズムは,TexBiGデータセット上でのトレーニングにおいて,優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-18T13:08:44Z) - Exploring Structured Semantic Prior for Multi Label Recognition with
Incomplete Labels [60.675714333081466]
不完全なラベルを持つマルチラベル認識(MLR)は非常に難しい。
最近の研究は、視覚言語モデルであるCLIPにおける画像とラベルの対応を探り、不十分なアノテーションを補うことを目指している。
我々は,MLRにおけるラベル管理の欠如を,構造化されたセマンティクスを導出することにより,不完全なラベルで修復することを提唱する。
論文 参考訳(メタデータ) (2023-03-23T12:39:20Z) - Binary Classification with Positive Labeling Sources [71.37692084951355]
WEAPOは、負のラベル付け源を使わずにトレーニングラベルを作成するための、シンプルで競争力のあるWS手法である。
We show WEAPO achieve the highest averaged performance on 10 benchmark datasets。
論文 参考訳(メタデータ) (2022-08-02T19:32:08Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Enhancing Label Correlation Feedback in Multi-Label Text Classification
via Multi-Task Learning [6.1538971100140145]
ラベル相関フィードバックを高めるために,マルチタスク学習を用いた新しい手法を提案する。
本稿では,ラベル相関学習を強化するための2つの補助ラベル共起予測タスクを提案する。
論文 参考訳(メタデータ) (2021-06-06T12:26:14Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z) - Unsupervised Label Refinement Improves Dataless Text Classification [48.031421660674745]
データレステキスト分類は、ラベル記述と組み合わせた文書にスコアを割り当てることで、文書を未確認のラベルに分類することができる。
有望ながら、それは重要なダウンストリームタスクごとにラベルセットの正確な説明に依存します。
この依存により、データレス分類器はラベル記述の選択に非常に敏感になり、実際にはデータレス分類の幅広い適用を妨げる。
論文 参考訳(メタデータ) (2020-12-08T03:37:50Z) - Layer-wise Guided Training for BERT: Learning Incrementally Refined
Document Representations [11.46458298316499]
本研究では, 細管BERTの構造化手法を提案する。
具体的には、大規模マルチラベルテキスト分類(LMTC)に焦点を当てる。
我々のアプローチは、特定の階層レベルからラベルを予測するために、特定のBERT層をガイドする。
論文 参考訳(メタデータ) (2020-10-12T14:56:22Z) - Interaction Matching for Long-Tail Multi-Label Classification [57.262792333593644]
既存のマルチラベル分類モデルにおいて,制約に対処するためのエレガントで効果的なアプローチを提案する。
ソフトなn-gram相互作用マッチングを実行することで、ラベルと自然言語記述をマッチングする。
論文 参考訳(メタデータ) (2020-05-18T15:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。