論文の概要: InstructABSA: Instruction Learning for Aspect Based Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2302.08624v1
- Date: Thu, 16 Feb 2023 23:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:26:13.433502
- Title: InstructABSA: Instruction Learning for Aspect Based Sentiment Analysis
- Title(参考訳): InstructABSA:Aspect Based Sentiment Analysisのための指導学習
- Authors: Kevin Scaria and Himanshu Gupta and Saurabh Arjun Sawant and Swaroop
Mishra and Chitta Baral
- Abstract要約: 本稿では,すべてのABSAサブタスクに対して,命令学習パラダイムを用いたアスペクトベース感性分析(ABSA)のインストラクトABSAを提案する。
提案手法は,各トレーニングサンプルに対して正,負,中立の例を導入し,各ABSAサブタスクに対してモデル(Tk-インストラクトベース)をチューニングし,大幅な性能改善を実現する。
- 参考スコア(独自算出の注目度): 20.07000677120042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present InstructABSA, Aspect-Based Sentiment Analysis
(ABSA) using instruction learning paradigm for all ABSA subtasks: Aspect Term
Extraction (ATE), Aspect Term Sentiment Classification (ATSC), and Joint Task
modeling. Our method introduces positive, negative, and neutral examples to
each training sample, and instruction tunes the model (Tk-Instruct Base) for
each ABSA subtask, yielding significant performance improvements. Experimental
results on the Sem Eval 2014 dataset demonstrate that InstructABSA outperforms
the previous state-of-the-art (SOTA) approaches on all three ABSA subtasks
(ATE, ATSC, and Joint Task) by a significant margin, outperforming 7x larger
models. In particular, InstructABSA surpasses the SOTA on the restaurant ATE
subtask by 7.31% points and on the Laptop Joint Task by 8.63% points. Our
results also suggest a strong generalization ability to unseen tasks across all
three subtasks.
- Abstract(参考訳): 本稿では,全ABSAサブタスクに対して,Aspect Term extract (ATE), Aspect Term Sentiment Classification (ATSC), Joint Task Modeling という命令学習パラダイムを用いた InstructABSA, Aspect-Based Sentiment Analysis (ABSA) を提案する。
本手法は,各トレーニングサンプルに正,負,中立のサンプルを導入し,各absaサブタスクのモデル(tk-instruct base)をチューニングし,大幅なパフォーマンス向上を実現する。
Sem Eval 2014データセットの実験結果によると、InstructABSAは以前の3つのABSAサブタスク(ATE、ATSC、ジョイントタスク)において7倍の精度で、従来の最先端(SOTA)アプローチよりも優れていた。
特に、InstructABSAはレストランATEサブタスクのSOTAを7.31%、ラップトップジョイントタスクのSOTAを8.63%上回る。
また,3つのサブタスクすべてにまたがってタスクを発見できる強力な一般化能力が示唆された。
関連論文リスト
- It is Simple Sometimes: A Study On Improving Aspect-Based Sentiment Analysis Performance [3.951769809066429]
タスク記述にNLP関連タスクプレフィックスを付加することにより、命令学習パラダイムの拡張であるPFInstructを提案する。
この単純なアプローチは全てのテストされたSemEvalサブタスクのパフォーマンスを改善し、ATEサブタスク(Rest14)の以前の状態(SOTA)を+3.28 F1スコア、AOOEサブタスクの平均+5.43 F1スコアで上回った。
論文 参考訳(メタデータ) (2024-05-31T08:57:09Z) - Instruction Tuning with Retrieval-based Examples Ranking for Aspect-based Sentiment Analysis [7.458853474864602]
アスペクトベースの感情分析(ABSA)は、特定の側面に関連する感情情報を識別し、企業や組織に対してより深い市場洞察を提供する。
近年の研究では、ABSAを生成タスクとして再構成する命令チューニングの固定例が提案されている。
本研究では,ABSAタスクの検索に基づくサンプルランキングを用いた指導学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-28T10:39:10Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - A Weak Supervision Approach for Few-Shot Aspect Based Sentiment [39.33888584498155]
豊富なラベルのないデータに対する弱みの監視は、感情分析タスクにおける数ショットのパフォーマンスを改善するために利用することができる。
ノイズの多いABSAデータセットを構築するパイプライン手法を提案し,それを用いて事前学習されたシーケンス・ツー・シーケンスモデルをABSAタスクに適用する。
提案手法は, 数ショット学習シナリオにおいて, 大幅な改良(15.84%) を示しながら, 完全な微調整性能を保っている。
論文 参考訳(メタデータ) (2023-05-19T19:53:54Z) - Instruction Tuned Models are Quick Learners [20.771930945083994]
そこで本研究では,各種タスクにおける指導調律モデルのサンプル効率について述べる。
STL設定では、下流列車データの25%を備えた指導調律モデルが下流タスクのSOTA性能を上回っている。
MTL設定では、下流のトレーニングデータの6%しか訓練されていない指導調律モデルがSOTAを達成する一方で、100%のトレーニングデータを使用することで3.69%の改善が達成される。
論文 参考訳(メタデータ) (2023-05-17T22:30:01Z) - Instruction Tuning for Few-Shot Aspect-Based Sentiment Analysis [72.9124467710526]
生成的アプローチは、テキストから(1つ以上の)4つの要素を1つのタスクとして抽出するために提案されている。
本稿では,ABSAを解くための統一的なフレームワークと,それに関連するサブタスクを提案する。
論文 参考訳(メタデータ) (2022-10-12T23:38:57Z) - Understanding Pre-trained BERT for Aspect-based Sentiment Analysis [71.40586258509394]
本稿では、アスペクトベース感情分析(ABSA)におけるタスクに対するBERTのレビューから得られた事前学習された隠れ表現について分析する。
アスペクトや意見のアノテーションなしでラベル付けされていないコーパスでトレーニングされた(マスクされた)言語モデルの一般的なプロキシタスクが、ABSAの下流タスクにどのように重要な機能を提供するかは明らかではない。
論文 参考訳(メタデータ) (2020-10-31T02:21:43Z) - Tasty Burgers, Soggy Fries: Probing Aspect Robustness in Aspect-Based
Sentiment Analysis [71.40390724765903]
アスペクトベースの感情分析(ABSA)は、テキストの特定の側面に対する感情を予測することを目的としている。
既存のABSAテストセットは、モデルが対象のアスペクトの感情を非ターゲットのアスペクトと区別できるかどうかを調査するために使用できない。
我々は、対象の側面の感情から、対象でない側面の相反する感情を解き放つための新しい例を生成する。
論文 参考訳(メタデータ) (2020-09-16T22:38:18Z) - Adversarial Training for Aspect-Based Sentiment Analysis with BERT [3.5493798890908104]
本稿では,感情分析における敵対的トレーニングを活用するため,BERT Adrial Training (BAT) と呼ばれる新しいアーキテクチャを提案する。
提案したモデルは、両方のタスクにおいて、ポストトレーニング後のBERTよりも優れている。
我々の知る限りでは、ABSAにおける対人訓練の適用に関する最初の研究である。
論文 参考訳(メタデータ) (2020-01-30T13:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。