論文の概要: Label-semantics Aware Generative Approach for Domain-Agnostic Multilabel Classification
- arxiv url: http://arxiv.org/abs/2506.06806v1
- Date: Sat, 07 Jun 2025 14:07:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.487694
- Title: Label-semantics Aware Generative Approach for Domain-Agnostic Multilabel Classification
- Title(参考訳): ドメイン非依存型マルチラベル分類におけるラベル・セマンティクスによる生成アプローチ
- Authors: Subhendu Khatuya, Shashwat Naidu, Saptarshi Ghosh, Pawan Goyal, Niloy Ganguly,
- Abstract要約: マルチラベルテキスト分類のための堅牢で効率的なドメインに依存しない生成モデルフレームワークを提案する。
提案手法は,事前に定義されたラベル記述を利用し,入力テキストに基づいてこれらの記述を生成するように訓練する。
提案モデルの有効性を,評価されたすべてのデータセットにまたがって,新たな最先端性能を実現することによって実証する。
- 参考スコア(独自算出の注目度): 25.4439290862464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The explosion of textual data has made manual document classification increasingly challenging. To address this, we introduce a robust, efficient domain-agnostic generative model framework for multi-label text classification. Instead of treating labels as mere atomic symbols, our approach utilizes predefined label descriptions and is trained to generate these descriptions based on the input text. During inference, the generated descriptions are matched to the pre-defined labels using a finetuned sentence transformer. We integrate this with a dual-objective loss function, combining cross-entropy loss and cosine similarity of the generated sentences with the predefined target descriptions, ensuring both semantic alignment and accuracy. Our proposed model LAGAMC stands out for its parameter efficiency and versatility across diverse datasets, making it well-suited for practical applications. We demonstrate the effectiveness of our proposed model by achieving new state-of-the-art performances across all evaluated datasets, surpassing several strong baselines. We achieve improvements of 13.94% in Micro-F1 and 24.85% in Macro-F1 compared to the closest baseline across all datasets.
- Abstract(参考訳): テキストデータの爆発により、手作業による文書分類がますます困難になっている。
そこで本稿では,マルチラベルテキスト分類のための,堅牢で効率的なドメインに依存しない生成モデルフレームワークを提案する。
ラベルを単なる原子記号として扱う代わりに、事前に定義されたラベル記述を利用し、入力テキストに基づいてこれらの記述を生成するように訓練する。
推論中、生成された記述は、微調整文変換器を用いて予め定義されたラベルにマッチする。
我々はこれを二重目的損失関数と統合し、生成した文のクロスエントロピー損失とコサイン類似性を予め定義された目標記述と組み合わせ、意味的アライメントと精度を両立させる。
提案モデルであるLAGAMCは,パラメータ効率と多種多様なデータセット間の汎用性に優れており,実用的な応用に適している。
提案モデルの有効性は,評価されたすべてのデータセットにまたがって新たな最先端性能を達成し,複数の強力なベースラインを超越することで実証する。
マイクロF1では13.94%、マクロF1では24.85%の改善を実現しています。
関連論文リスト
- CoA: Chain-of-Action for Generative Semantic Labels [5.016605351534376]
CoA(Chain-of-Action)メソッドは、画像の文脈的に関連する特徴に沿ったラベルを生成する。
CoAは、豊かで価値のある文脈情報が推論時の生成性能を改善するという観察に基づいて設計されている。
論文 参考訳(メタデータ) (2024-11-26T13:09:14Z) - HiGen: Hierarchy-Aware Sequence Generation for Hierarchical Text
Classification [19.12354692458442]
階層的テキスト分類 (HTC) は、マルチラベルテキスト分類における複雑なサブタスクである。
動的テキスト表現を符号化する言語モデルを利用したテキスト生成フレームワークHiGenを提案する。
論文 参考訳(メタデータ) (2024-01-24T04:44:42Z) - Exploring Structured Semantic Prior for Multi Label Recognition with
Incomplete Labels [60.675714333081466]
不完全なラベルを持つマルチラベル認識(MLR)は非常に難しい。
最近の研究は、視覚言語モデルであるCLIPにおける画像とラベルの対応を探り、不十分なアノテーションを補うことを目指している。
我々は,MLRにおけるラベル管理の欠如を,構造化されたセマンティクスを導出することにより,不完全なラベルで修復することを提唱する。
論文 参考訳(メタデータ) (2023-03-23T12:39:20Z) - Ground Truth Inference for Weakly Supervised Entity Matching [76.6732856489872]
弱監督タスクのための単純だが強力なラベル付けモデルを提案する。
次に、エンティティマッチングのタスクに特化してラベルモデルを調整します。
その結果,従来の手法よりもF1スコアが9%高い結果が得られた。
論文 参考訳(メタデータ) (2022-11-13T17:57:07Z) - Exploiting Local and Global Features in Transformer-based Extreme
Multi-label Text Classification [28.28186933768281]
本稿では,Transformerモデルが生成する局所的特徴とグローバル的特徴を組み合わせることで,分類器の予測能力を向上させる手法を提案する。
本実験は,提案モデルがベンチマークデータセットの最先端手法よりも優れているか,あるいは同等であることを示す。
論文 参考訳(メタデータ) (2022-04-02T19:55:23Z) - HTCInfoMax: A Global Model for Hierarchical Text Classification via
Information Maximization [75.45291796263103]
階層的テキスト分類のための現在の最新モデルHiAGMには2つの制限がある。
関連しない情報を含むデータセット内のすべてのラベルと、各テキストサンプルを関連付ける。
2つのモジュールを含む情報を導入することで、これらの問題に対処するHTCInfoMaxを提案します。
論文 参考訳(メタデータ) (2021-04-12T06:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。