論文の概要: InstructABSA: Instruction Learning for Aspect Based Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2302.08624v4
- Date: Thu, 20 Apr 2023 05:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 16:39:49.095031
- Title: InstructABSA: Instruction Learning for Aspect Based Sentiment Analysis
- Title(参考訳): InstructABSA:Aspect Based Sentiment Analysisのための指導学習
- Authors: Kevin Scaria and Himanshu Gupta and Siddharth Goyal and Saurabh Arjun
Sawant and Swaroop Mishra and Chitta Baral
- Abstract要約: InstructABSA, Aspect Based Sentiment Analysis (ABSA) をABSAサブタスクの指導学習パラダイムを用いて提案する。
提案手法は,各トレーニングサンプルに対して正,負,中立の例を導入し,ABSAサブタスクのモデル(Tk-インストラクト)をチューニングし,大幅な性能改善を実現する。
- 参考スコア(独自算出の注目度): 18.707258664906956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present InstructABSA, Aspect Based Sentiment Analysis
(ABSA) using the instruction learning paradigm for the ABSA subtasks: Aspect
Term Extraction (ATE), Aspect Term Sentiment Classification (ATSC), and Joint
Task modeling. Our method introduces positive, negative, and neutral examples
to each training sample, and instruction tunes the model (Tk-Instruct) the ABSA
subtasks, yielding significant performance improvements. Experimental results
on the Sem Eval 2014, 15, and 16 datasets demonstrate that InstructABSA
outperforms the previous state-of-the-art (SOTA) approaches on the three ABSA
subtasks (ATE, ATSC, and Joint Task) by a significant margin, outperforming 7x
larger models. In particular, InstructABSA surpasses the SOTA on the Rest14 ATE
subtask by 5.69% points, Rest15 ATSC subtask by 9.59% points, and on the Lapt14
Joint Task by 3.37% points. Our results also suggest a strong generalization
ability to new domains across all three subtasks
- Abstract(参考訳): 本稿では、ABSAサブタスクの命令学習パラダイム(Aspect Term extract (ATE)、Aspect Term Sentiment Classification (ATSC)、ジョイントタスクモデリング)を用いて、ABSA、Aspect Based Sentiment Analysis (ABSA)を提案する。
提案手法は,各トレーニングサンプルに対して正,負,中立の例を導入し,ABSAサブタスクのモデル(Tk-インストラクト)をチューニングし,大幅な性能改善を実現する。
Sem Eval 2014 15 16データセットの実験結果によると、InstructABSAは以前の最先端(SOTA)アプローチよりも、ABSAサブタスク(ATE、ATSC、ジョイントタスク)の3つのサブタスク(ATE、ATSC、ジョイントタスク)の方が、大きなマージンで、7倍のモデルより優れていた。
特に、InstructABSAは、Rest14 ATEサブタスクのSOTAを5.69%、Rest15 ATSCサブタスクの9.59%、Lapt14 Joint Taskの3.37%を上回っている。
また、3つのサブタスクにまたがる新しいドメインに対する強力な一般化能力も示唆した。
関連論文リスト
- All in One: An Empirical Study of GPT for Few-Shot Aspect-Based Sentiment Anlaysis [0.0]
すべてのABSAサブタスクに対して,単純かつ効果的な2段階モデルであるAll in One (AiO) モデルを提案する。
第1段階で、バックボーンネットワークはレビューの意味情報を学習し、文脈的に強化された候補を生成する。
第2段階では、AiOはGPT学習機能を活用して予測を生成する。
論文 参考訳(メタデータ) (2024-04-09T07:02:14Z) - Revisiting the Power of Prompt for Visual Tuning [53.102284329377056]
本研究では,プロンプトとパッチトークンの相互関係について検討した。
プロンプトトークンはパッチトークンと高い相互情報を共有する傾向にあるという観測から着想を得て,下流トークンのプロトタイプを用いた初期化プロンプトを提案する。
本手法は, 自己指導型プレトレーニングの適応性を著しく向上させ, 少なくとも10%から30%のタスク性能向上を実現した。
論文 参考訳(メタデータ) (2024-02-04T07:49:02Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - A Weak Supervision Approach for Few-Shot Aspect Based Sentiment [39.33888584498155]
豊富なラベルのないデータに対する弱みの監視は、感情分析タスクにおける数ショットのパフォーマンスを改善するために利用することができる。
ノイズの多いABSAデータセットを構築するパイプライン手法を提案し,それを用いて事前学習されたシーケンス・ツー・シーケンスモデルをABSAタスクに適用する。
提案手法は, 数ショット学習シナリオにおいて, 大幅な改良(15.84%) を示しながら, 完全な微調整性能を保っている。
論文 参考訳(メタデータ) (2023-05-19T19:53:54Z) - Instruction Tuned Models are Quick Learners [20.771930945083994]
そこで本研究では,各種タスクにおける指導調律モデルのサンプル効率について述べる。
STL設定では、下流列車データの25%を備えた指導調律モデルが下流タスクのSOTA性能を上回っている。
MTL設定では、下流のトレーニングデータの6%しか訓練されていない指導調律モデルがSOTAを達成する一方で、100%のトレーニングデータを使用することで3.69%の改善が達成される。
論文 参考訳(メタデータ) (2023-05-17T22:30:01Z) - Instruction Tuning for Few-Shot Aspect-Based Sentiment Analysis [72.9124467710526]
生成的アプローチは、テキストから(1つ以上の)4つの要素を1つのタスクとして抽出するために提案されている。
本稿では,ABSAを解くための統一的なフレームワークと,それに関連するサブタスクを提案する。
論文 参考訳(メタデータ) (2022-10-12T23:38:57Z) - A Unified Generative Framework for Aspect-Based Sentiment Analysis [33.911655982545206]
Aspect-based Sentiment Analysis (ABSA) は、アスペクトの項、対応する感情の極性、意見の項を識別することを目的としている。
ABSAには7つのサブタスクがある。
本稿では,各サブタスク対象を,ポインタインデックスと感情クラスインデックスで混合したシーケンスとして再定義する。
トレーニング前のシーケンス・ツー・シーケンス・モデルであるBARTを用いて、エンド・ツー・エンドのフレームワークで全てのABSAサブタスクを解決する。
論文 参考訳(メタデータ) (2021-06-08T12:55:22Z) - Tasty Burgers, Soggy Fries: Probing Aspect Robustness in Aspect-Based
Sentiment Analysis [71.40390724765903]
アスペクトベースの感情分析(ABSA)は、テキストの特定の側面に対する感情を予測することを目的としている。
既存のABSAテストセットは、モデルが対象のアスペクトの感情を非ターゲットのアスペクトと区別できるかどうかを調査するために使用できない。
我々は、対象の側面の感情から、対象でない側面の相反する感情を解き放つための新しい例を生成する。
論文 参考訳(メタデータ) (2020-09-16T22:38:18Z) - Adversarial Training for Aspect-Based Sentiment Analysis with BERT [3.5493798890908104]
本稿では,感情分析における敵対的トレーニングを活用するため,BERT Adrial Training (BAT) と呼ばれる新しいアーキテクチャを提案する。
提案したモデルは、両方のタスクにおいて、ポストトレーニング後のBERTよりも優れている。
我々の知る限りでは、ABSAにおける対人訓練の適用に関する最初の研究である。
論文 参考訳(メタデータ) (2020-01-30T13:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。