論文の概要: Multitask Learning for Class-Imbalanced Discourse Classification
- arxiv url: http://arxiv.org/abs/2101.00389v1
- Date: Sat, 2 Jan 2021 07:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 07:19:35.435320
- Title: Multitask Learning for Class-Imbalanced Discourse Classification
- Title(参考訳): クラス不均衡談話分類のためのマルチタスク学習
- Authors: Alexander Spangher, Jonathan May, Sz-rung Shiang and Lingjia Deng
- Abstract要約: マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
- 参考スコア(独自算出の注目度): 74.41900374452472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small class-imbalanced datasets, common in many high-level semantic tasks
like discourse analysis, present a particular challenge to current
deep-learning architectures. In this work, we perform an extensive analysis on
sentence-level classification approaches for the News Discourse dataset, one of
the largest high-level semantic discourse datasets recently published. We show
that a multitask approach can improve 7% Micro F1-score upon current
state-of-the-art benchmarks, due in part to label corrections across tasks,
which improve performance for underrepresented classes. We also offer a
comparative review of additional techniques proposed to address resource-poor
problems in NLP, and show that none of these approaches can improve
classification accuracy in such a setting.
- Abstract(参考訳): 談話分析のような多くのハイレベルなセマンティックタスクに共通する小さなクラス不均衡データセットは、現在のディープラーニングアーキテクチャに特に挑戦する。
本研究では,最近公表された最大レベルの意味談話データセットの一つであるNews Discourseデータセットに対して,文レベルの分類アプローチに関する広範な分析を行う。
マルチタスクアプローチは,タスク間のラベル補正によって,現在最先端のベンチマークで7%のマイクロF1スコアを向上できることを示す。
また, NLPにおける資源不足問題に対処するための追加手法の比較検討を行い, いずれの手法も分類精度を向上できないことを示した。
関連論文リスト
- Improving the Evaluation and Actionability of Explanation Methods for Multivariate Time Series Classification [4.588028371034407]
MTSCに適用された属性手法の評価手法であるInterpretTimeの分析に焦点をあてる。
提案手法のいくつかの重大な弱点を示し,その精度と効率を改善するためのアイデアを提案する。
SHAPやFeature Ablationのような摂動に基づく手法は、データセットの集合でうまく機能する。
論文 参考訳(メタデータ) (2024-06-18T11:18:46Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Order Matters in the Presence of Dataset Imbalance for Multilingual
Learning [53.74649778447903]
本稿では,高リソースタスクの事前学習をシンプルかつ効果的に行う方法と,高リソースタスクと低リソースタスクの混合による微調整について述べる。
ニューラルネットワーク翻訳(NMT)と多言語言語モデリングの改善について述べる。
論文 参考訳(メタデータ) (2023-12-11T05:46:57Z) - Efficient IoT Inference via Context-Awareness [8.882680489254923]
我々は、スケーラブルで効率的な文脈認識分類のための新しいパラダイム、CACTUSを提案する。
我々は、CACTUSが、さまざまなデータセットやIoTプラットフォームにわたる正確性、レイテンシ、計算予算において、大きなメリットを達成していることを示す。
論文 参考訳(メタデータ) (2023-10-29T18:57:15Z) - Learning to Paraphrase Sentences to Different Complexity Levels [3.0273878903284275]
文の単純化はNLPにおいて活発な研究課題であるが,その隣接する文の複雑化や同レベルのパラフレーズ化の課題はそうではない。
3つのタスクすべてでモデルをトレーニングするために、教師なしデータセットを2つ提示する。
論文 参考訳(メタデータ) (2023-08-04T09:43:37Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Task-Specific Embeddings for Ante-Hoc Explainable Text Classification [6.671252951387647]
テキストのタスク固有の埋め込みを学習する学習目標を提案する。
提案する目的は,同一のクラスラベルを共有するすべてのテキストが近接しているように埋め込みを学習することである。
本研究は, 総合的な分類精度において, アンテホックな説明可能性と漸進的な学習の利点が無コストで得られることを示す広範囲な実験である。
論文 参考訳(メタデータ) (2022-11-30T19:56:25Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。