論文の概要: UnifiedABSA: A Unified ABSA Framework Based on Multi-task Instruction
Tuning
- arxiv url: http://arxiv.org/abs/2211.10986v1
- Date: Sun, 20 Nov 2022 14:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:40:28.386397
- Title: UnifiedABSA: A Unified ABSA Framework Based on Multi-task Instruction
Tuning
- Title(参考訳): UnifiedABSA:マルチタスクインストラクションチューニングに基づく統一ABSAフレームワーク
- Authors: Zengzhi Wang, Rui Xia, Jianfei Yu
- Abstract要約: Aspect-Based Sentiment Analysis (ABSA) は、微粒なアスペクトレベルの感情情報を提供することを目的としている。
多くのABSAタスクがあり、現在の主流パラダイムはタスクごとにタスク固有のモデルをトレーニングすることである。
マルチタスク命令チューニングに基づく汎用ABSAフレームワークUnifiedABSAを提案する。
- 参考スコア(独自算出の注目度): 25.482853330324748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aspect-Based Sentiment Analysis (ABSA) aims to provide fine-grained
aspect-level sentiment information. There are many ABSA tasks, and the current
dominant paradigm is to train task-specific models for each task. However,
application scenarios of ABSA tasks are often diverse. This solution usually
requires a large amount of labeled data from each task to perform excellently.
These dedicated models are separately trained and separately predicted,
ignoring the relationship between tasks. To tackle these issues, we present
UnifiedABSA, a general-purpose ABSA framework based on multi-task instruction
tuning, which can uniformly model various tasks and capture the inter-task
dependency with multi-task learning. Extensive experiments on two benchmark
datasets show that UnifiedABSA can significantly outperform dedicated models on
11 ABSA tasks and show its superiority in terms of data efficiency.
- Abstract(参考訳): Aspect-Based Sentiment Analysis (ABSA) は、詳細なアスペクトレベルの感情情報を提供することを目的としている。
多くのABSAタスクがあり、現在の主流パラダイムはタスクごとにタスク固有のモデルをトレーニングすることだ。
しかし、ABSAタスクのアプリケーションシナリオはしばしば多様である。
このソリューションは通常、優れたパフォーマンスを得るために各タスクから大量のラベル付きデータを必要とします。
これらの専用モデルは個別に訓練され、個別に予測され、タスク間の関係を無視します。
これらの課題に対処するために,マルチタスク命令チューニングに基づく汎用ABSAフレームワークUnifiedABSAを提案する。
2つのベンチマークデータセットの大規模な実験は、UnifiedABSAが11のABSAタスクの専用モデルを大幅に上回っており、データ効率の点でその優位性を示していることを示している。
関連論文リスト
- BoRA: Bayesian Hierarchical Low-Rank Adaption for Multi-task Large Language Models [0.0]
本稿では,マルチタスク大言語モデル(LLM)を微調整する新しい手法であるベイジアン階層型低ランク適応(BoRA)を紹介する。
BoRAは、グローバルな階層的事前を通じてタスクが情報を共有できるベイズ階層モデルを活用することでトレードオフに対処する。
実験の結果,BoRAは個々のモデルアプローチと統一モデルアプローチの両方に優れており,より難易度が低く,タスク間の一般化性が向上していることがわかった。
論文 参考訳(メタデータ) (2024-07-08T06:38:50Z) - It is Simple Sometimes: A Study On Improving Aspect-Based Sentiment Analysis Performance [3.951769809066429]
タスク記述にNLP関連タスクプレフィックスを付加することにより、命令学習パラダイムの拡張であるPFInstructを提案する。
この単純なアプローチは全てのテストされたSemEvalサブタスクのパフォーマンスを改善し、ATEサブタスク(Rest14)の以前の状態(SOTA)を+3.28 F1スコア、AOOEサブタスクの平均+5.43 F1スコアで上回った。
論文 参考訳(メタデータ) (2024-05-31T08:57:09Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Musketeer: Joint Training for Multi-task Vision Language Model with Task Explanation Prompts [75.75548749888029]
本稿では,全てのタスクに対してパラメータを共同で訓練し,複数の異種タスク間で完全に共有する視覚言語モデルを提案する。
単一のモデルで、Musteteerは単一のタスクでトレーニングされた強いベースラインに匹敵する結果を得る。
論文 参考訳(メタデータ) (2023-05-11T17:57:49Z) - OFASys: A Multi-Modal Multi-Task Learning System for Building Generalist
Models [72.8156832931841]
ジェネリストモデルは、単一のモデル内でタスクに依存しない方法で多様なマルチモーダルタスクを実行することができる。
マルチモーダル命令と呼ばれる宣言型タスクインタフェース上に構築された汎用モデル学習システムOFASysをリリースする。
論文 参考訳(メタデータ) (2022-12-08T17:07:09Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - A Unified Generative Framework for Aspect-Based Sentiment Analysis [33.911655982545206]
Aspect-based Sentiment Analysis (ABSA) は、アスペクトの項、対応する感情の極性、意見の項を識別することを目的としている。
ABSAには7つのサブタスクがある。
本稿では,各サブタスク対象を,ポインタインデックスと感情クラスインデックスで混合したシーケンスとして再定義する。
トレーニング前のシーケンス・ツー・シーケンス・モデルであるBARTを用いて、エンド・ツー・エンドのフレームワークで全てのABSAサブタスクを解決する。
論文 参考訳(メタデータ) (2021-06-08T12:55:22Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z) - Low Resource Multi-Task Sequence Tagging -- Revisiting Dynamic
Conditional Random Fields [67.51177964010967]
異なるタスクに対するラベルシーケンス間の依存関係を利用する低リソースマルチタスクシーケンスタグの異なるモデルを比較した。
タスク予測間の相互依存性の明示的モデリングは、通常のマルチタスクモデルと同様にシングルタスクよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-01T07:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。