論文の概要: InstructABSA: Instruction Learning for Aspect Based Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2302.08624v6
- Date: Mon, 13 Nov 2023 17:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 22:30:12.497245
- Title: InstructABSA: Instruction Learning for Aspect Based Sentiment Analysis
- Title(参考訳): InstructABSA:Aspect Based Sentiment Analysisのための指導学習
- Authors: Kevin Scaria and Himanshu Gupta and Siddharth Goyal and Saurabh Arjun
Sawant and Swaroop Mishra and Chitta Baral
- Abstract要約: InstructABSAは、Aspect-Based Sentiment Analysis (ABSA)サブタスクのための命令学習パラダイムである。
提案手法は,各トレーニングサンプルに対して正,負,中立の例を導入し,ABSAサブタスクのモデル(Tk-インストラクト)を指導し,大幅な性能向上をもたらす。
- 参考スコア(独自算出の注目度): 58.188050006989144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce InstructABSA, an instruction learning paradigm for Aspect-Based
Sentiment Analysis (ABSA) subtasks. Our method introduces positive, negative,
and neutral examples to each training sample, and instruction tune the model
(Tk-Instruct) for ABSA subtasks, yielding significant performance improvements.
Experimental results on the Sem Eval 2014, 15, and 16 datasets demonstrate that
InstructABSA outperforms the previous state-of-the-art (SOTA) approaches on
Term Extraction (ATE), Sentiment Classification(ATSC) and Sentiment Pair
Extraction (ASPE) subtasks. In particular, InstructABSA outperforms the
previous state-of-the-art (SOTA) on the Rest14 ATE subtask by 5.69% points, the
Rest15 ATSC subtask by 9.59% points, and the Lapt14 AOPE subtask by 3.37%
points, surpassing 7x larger models. We also get competitive results on AOOE,
AOPE, and AOSTE subtasks indicating strong generalization ability to all
subtasks. Exploring sample efficiency reveals that just 50% train data is
required to get competitive results with other instruction tuning approaches.
Lastly, we assess the quality of instructions and observe that InstructABSA's
performance experiences a decline of ~10% when adding misleading examples.
- Abstract(参考訳): InstructABSAは,Aspect-Based Sentiment Analysis(ABSA)サブタスクのための指導学習パラダイムである。
提案手法は,各トレーニングサンプルに対して正,負,中立の例を導入し,ABSAサブタスクのモデル(Tk-インストラクト)を指導し,大幅な性能向上をもたらす。
Sem Eval 2014 15 16データセットの実験結果から、InstructABSAは、ターム抽出(ATE)、センティメント分類(ATSC)、センティメントペア抽出(ASPE)サブタスクにおいて、以前の最先端(SOTA)アプローチよりも優れていることが示された。
特に、InstructABSAは、Rest14 ATEサブタスクの以前の最先端(SOTA)を5.69%、Rest15 ATSCサブタスクを9.59%、Lapt14 AOPEサブタスクを3.37%、より大きなモデルを7倍に上回っている。
また,AOOE,AOPE,AOSTEのサブタスクに対して,全てのサブタスクに対して強力な一般化能力を示す競争結果を得た。
サンプル効率を調べることで、他の命令チューニングアプローチと競合する結果を得るためには、わずか50%のトレーニングデータが必要であることが分かる。
最後に、指示の質を評価し、instructabsaのパフォーマンスが誤解を招く例を追加すると10%程度低下するのを観察します。
関連論文リスト
- It is Simple Sometimes: A Study On Improving Aspect-Based Sentiment Analysis Performance [3.951769809066429]
タスク記述にNLP関連タスクプレフィックスを付加することにより、命令学習パラダイムの拡張であるPFInstructを提案する。
この単純なアプローチは全てのテストされたSemEvalサブタスクのパフォーマンスを改善し、ATEサブタスク(Rest14)の以前の状態(SOTA)を+3.28 F1スコア、AOOEサブタスクの平均+5.43 F1スコアで上回った。
論文 参考訳(メタデータ) (2024-05-31T08:57:09Z) - Instruction Tuning with Retrieval-based Examples Ranking for Aspect-based Sentiment Analysis [7.458853474864602]
アスペクトベースの感情分析(ABSA)は、特定の側面に関連する感情情報を識別し、企業や組織に対してより深い市場洞察を提供する。
近年の研究では、ABSAを生成タスクとして再構成する命令チューニングの固定例が提案されている。
本研究では,ABSAタスクの検索に基づくサンプルランキングを用いた指導学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-28T10:39:10Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - A Weak Supervision Approach for Few-Shot Aspect Based Sentiment [39.33888584498155]
豊富なラベルのないデータに対する弱みの監視は、感情分析タスクにおける数ショットのパフォーマンスを改善するために利用することができる。
ノイズの多いABSAデータセットを構築するパイプライン手法を提案し,それを用いて事前学習されたシーケンス・ツー・シーケンスモデルをABSAタスクに適用する。
提案手法は, 数ショット学習シナリオにおいて, 大幅な改良(15.84%) を示しながら, 完全な微調整性能を保っている。
論文 参考訳(メタデータ) (2023-05-19T19:53:54Z) - Instruction Tuned Models are Quick Learners [20.771930945083994]
そこで本研究では,各種タスクにおける指導調律モデルのサンプル効率について述べる。
STL設定では、下流列車データの25%を備えた指導調律モデルが下流タスクのSOTA性能を上回っている。
MTL設定では、下流のトレーニングデータの6%しか訓練されていない指導調律モデルがSOTAを達成する一方で、100%のトレーニングデータを使用することで3.69%の改善が達成される。
論文 参考訳(メタデータ) (2023-05-17T22:30:01Z) - Instruction Tuning for Few-Shot Aspect-Based Sentiment Analysis [72.9124467710526]
生成的アプローチは、テキストから(1つ以上の)4つの要素を1つのタスクとして抽出するために提案されている。
本稿では,ABSAを解くための統一的なフレームワークと,それに関連するサブタスクを提案する。
論文 参考訳(メタデータ) (2022-10-12T23:38:57Z) - Understanding Pre-trained BERT for Aspect-based Sentiment Analysis [71.40586258509394]
本稿では、アスペクトベース感情分析(ABSA)におけるタスクに対するBERTのレビューから得られた事前学習された隠れ表現について分析する。
アスペクトや意見のアノテーションなしでラベル付けされていないコーパスでトレーニングされた(マスクされた)言語モデルの一般的なプロキシタスクが、ABSAの下流タスクにどのように重要な機能を提供するかは明らかではない。
論文 参考訳(メタデータ) (2020-10-31T02:21:43Z) - Tasty Burgers, Soggy Fries: Probing Aspect Robustness in Aspect-Based
Sentiment Analysis [71.40390724765903]
アスペクトベースの感情分析(ABSA)は、テキストの特定の側面に対する感情を予測することを目的としている。
既存のABSAテストセットは、モデルが対象のアスペクトの感情を非ターゲットのアスペクトと区別できるかどうかを調査するために使用できない。
我々は、対象の側面の感情から、対象でない側面の相反する感情を解き放つための新しい例を生成する。
論文 参考訳(メタデータ) (2020-09-16T22:38:18Z) - Adversarial Training for Aspect-Based Sentiment Analysis with BERT [3.5493798890908104]
本稿では,感情分析における敵対的トレーニングを活用するため,BERT Adrial Training (BAT) と呼ばれる新しいアーキテクチャを提案する。
提案したモデルは、両方のタスクにおいて、ポストトレーニング後のBERTよりも優れている。
我々の知る限りでは、ABSAにおける対人訓練の適用に関する最初の研究である。
論文 参考訳(メタデータ) (2020-01-30T13:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。