論文の概要: Compositional Generalization for Multi-label Text Classification: A
Data-Augmentation Approach
- arxiv url: http://arxiv.org/abs/2312.11276v3
- Date: Wed, 20 Dec 2023 09:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 12:39:12.153039
- Title: Compositional Generalization for Multi-label Text Classification: A
Data-Augmentation Approach
- Title(参考訳): 複数ラベルテキスト分類のための合成一般化:データ拡張アプローチ
- Authors: Yuyang Chai, Zhuang Li, Jiahui Liu, Lei Chen, Fei Li, Donghong Ji and
Chong Teng
- Abstract要約: 既存の多ラベルテキスト分類モデルの合成一般化能力を評価する。
以上の結果から,これらのモデルが学習中に頻繁に遭遇する構成概念に一般化できないことが示唆された。
そこで本研究では、2つの革新的なテキスト生成モデルを活用するデータ拡張手法を提案する。
- 参考スコア(独自算出の注目度): 40.879814474959545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite significant advancements in multi-label text classification, the
ability of existing models to generalize to novel and seldom-encountered
complex concepts, which are compositions of elementary ones, remains
underexplored. This research addresses this gap. By creating unique data splits
across three benchmarks, we assess the compositional generalization ability of
existing multi-label text classification models. Our results show that these
models often fail to generalize to compositional concepts encountered
infrequently during training, leading to inferior performance on tests with
these new combinations. To address this, we introduce a data augmentation
method that leverages two innovative text generation models designed to enhance
the classification models' capacity for compositional generalization. Our
experiments show that this data augmentation approach significantly improves
the compositional generalization capabilities of classification models on our
benchmarks, with both generation models surpassing other text generation
baselines.
- Abstract(参考訳): マルチラベルテキスト分類の大幅な進歩にもかかわらず、既存のモデルが新規で稀な複雑な概念を一般化する能力は、基礎的な概念の合成である。
この研究はこのギャップに対処する。
3つのベンチマークで独自のデータ分割を作成することにより、既存のマルチラベルテキスト分類モデルの合成一般化能力を評価する。
以上の結果から,これらのモデルでは,学習中に頻繁に発生する構成概念を一般化できない場合が多く,新しい組み合わせを用いたテストでは性能が劣ることがわかった。
そこで本稿では,合成一般化のための分類モデルの能力向上を目的とした,2つの革新的なテキスト生成モデルを活用するデータ拡張手法を提案する。
実験の結果,このデータ拡張手法は,テキスト生成ベースラインを上回り,ベンチマーク上での分類モデルの合成一般化能力を著しく向上させることがわかった。
関連論文リスト
- IterComp: Iterative Composition-Aware Feedback Learning from Model Gallery for Text-to-Image Generation [70.8833857249951]
IterCompは、複数のモデルから合成対応モデルの好みを集約する新しいフレームワークである。
クローズドループ方式で構成性を向上する反復的フィードバック学習法を提案する。
IterCompは、拡散モデルと合成生成のための報酬フィードバック学習の新たな研究の道を開く。
論文 参考訳(メタデータ) (2024-10-09T17:59:13Z) - Contextuality Helps Representation Learning for Generalized Category Discovery [5.885208652383516]
本稿では、文脈性の概念を活用することにより、一般化カテゴリー発見(GCD)への新たなアプローチを提案する。
我々のモデルでは,コントラスト学習に最も近いコンテキストが使用されるインスタンスレベルと,コントラスト学習を利用するクラスタレベルという,2つのコンテキストレベルを統合している。
文脈情報の統合は、特徴学習を効果的に改善し、その結果、すべてのカテゴリの分類精度が向上する。
論文 参考訳(メタデータ) (2024-07-29T07:30:41Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Extractive Text Summarization Using Generalized Additive Models with
Interactions for Sentence Selection [0.0]
本研究は、言語的特徴と二項分類に基づく抽出的要約問題への2つの近代的一般化加法モデル、すなわち説明可能なブースティングマシンとGAMI-Netの適用について研究する。
論文 参考訳(メタデータ) (2022-12-21T00:56:50Z) - Compositional Generalisation with Structured Reordering and Fertility
Layers [121.37328648951993]
Seq2seqモデルは構成一般化に苦しむことが示されている。
本稿では、2つの構造演算を構成するフレキシブルなエンドツーエンドの微分可能なニューラルモデルを提案する。
論文 参考訳(メタデータ) (2022-10-06T19:51:31Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Revisiting the Compositional Generalization Abilities of Neural Sequence
Models [23.665350744415004]
一般的なSCANベンチマークで導入されたワンショットプリミティブな一般化に焦点を当てる。
トレーニング分布をシンプルかつ直感的に修正することで、標準的なSeq-to-seqモデルでほぼ完璧な一般化性能が得られることを示す。
論文 参考訳(メタデータ) (2022-03-14T18:03:21Z) - Improving Compositional Generalization with Self-Training for
Data-to-Text Generation [36.973617793800315]
データ・テキスト・タスクにおける現在の生成モデルの合成一般化について検討する。
構成的気象データセットの構造変化をシミュレートすることにより、T5モデルは目に見えない構造に一般化できないことを示す。
擬似応答選択のための細調整BLEURTを用いた自己学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-10-16T04:26:56Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。