論文の概要: Does syntax matter? A strong baseline for Aspect-based Sentiment
Analysis with RoBERTa
- arxiv url: http://arxiv.org/abs/2104.04986v1
- Date: Sun, 11 Apr 2021 10:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:22:32.332543
- Title: Does syntax matter? A strong baseline for Aspect-based Sentiment
Analysis with RoBERTa
- Title(参考訳): 構文は重要か?
RoBERTaを用いたアスペクトベース感性分析のための強力なベースライン
- Authors: Junqi Dai, Hang Yan, Tianxiang Sun, Pengfei Liu, Xipeng Qiu
- Abstract要約: 純粋なRoBERTaベースモデルは,4言語にわたる6つのデータセットにおいて,以前のSOTA性能よりも優れ,あるいは近似可能であることを示す。
実験はFT-RoBERTaも明らかにした。
Treeは感情語指向であり、ABSAタスクの恩恵を受ける可能性がある。
- 参考スコア(独自算出の注目度): 40.43056528274222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aspect-based Sentiment Analysis (ABSA), aiming at predicting the polarities
for aspects, is a fine-grained task in the field of sentiment analysis.
Previous work showed syntactic information, e.g. dependency trees, can
effectively improve the ABSA performance. Recently, pre-trained models (PTMs)
also have shown their effectiveness on ABSA. Therefore, the question naturally
arises whether PTMs contain sufficient syntactic information for ABSA so that
we can obtain a good ABSA model only based on PTMs. In this paper, we firstly
compare the induced trees from PTMs and the dependency parsing trees on several
popular models for the ABSA task, showing that the induced tree from fine-tuned
RoBERTa (FT-RoBERTa) outperforms the parser-provided tree. The further analysis
experiments reveal that the FT-RoBERTa Induced Tree is more
sentiment-word-oriented and could benefit the ABSA task. The experiments also
show that the pure RoBERTa-based model can outperform or approximate to the
previous SOTA performances on six datasets across four languages since it
implicitly incorporates the task-oriented syntactic information.
- Abstract(参考訳): Aspect-based Sentiment Analysis (ABSA) は、感情分析の分野における細かいタスクである。
以前の研究は、例えば構文情報を示した。
依存性ツリーはABSAのパフォーマンスを効果的に改善する。
近年,プレトレーニングモデル (PTM) もABSA上での有効性を示した。
したがって, PTM が ABSA の十分な構文情報を含むかどうかという疑問が自然に生じ, 優れた ABSA モデルが得られるのは PTM のみである。
本稿では,まず PTM から誘導された木と ABSA タスクのいくつかの人気モデルの依存性解析木を比較し,微調整された RoBERTa (FT-RoBERTa) から誘導された木が解析した木より優れていることを示す。
さらなる分析実験により、FT-RoBERTa誘導木は感情語指向であり、ABSAタスクの恩恵を受ける可能性が示された。
実験では、タスク指向の構文情報を暗黙的に組み込むため、純粋なRoBERTaベースのモデルは、4つの言語にわたる6つのデータセットで以前のSOTAのパフォーマンスより優れているか、近似可能であることも示している。
関連論文リスト
- It is Simple Sometimes: A Study On Improving Aspect-Based Sentiment Analysis Performance [3.951769809066429]
タスク記述にNLP関連タスクプレフィックスを付加することにより、命令学習パラダイムの拡張であるPFInstructを提案する。
この単純なアプローチは全てのテストされたSemEvalサブタスクのパフォーマンスを改善し、ATEサブタスク(Rest14)の以前の状態(SOTA)を+3.28 F1スコア、AOOEサブタスクの平均+5.43 F1スコアで上回った。
論文 参考訳(メタデータ) (2024-05-31T08:57:09Z) - Extensible Multi-Granularity Fusion Network for Aspect-based Sentiment
Analysis [20.378588765134122]
Aspect-based Sentiment Analysis (ABSA)は、感情情報を理解するためにテキスト内の感情表現を評価する。
近年,グラフニューラルネットワーク (GNN) の構文解析への依存性と構成木の利用について検討している。
本稿では,依存性や構成構文,注意の意味,外部知識グラフなどの情報を統合したEMGF(Extensible Multi-Granularity Fusion)ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-12T16:52:26Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - Aspect-Based Sentiment Analysis using Local Context Focus Mechanism with
DeBERTa [23.00810941211685]
Aspect-Based Sentiment Analysis (ABSA)は、感情分析の分野におけるきめ細かいタスクである。
アスペクトベース感性分析問題を解決するための最近のDeBERTaモデル
論文 参考訳(メタデータ) (2022-07-06T03:50:31Z) - Incorporating Dynamic Semantics into Pre-Trained Language Model for
Aspect-based Sentiment Analysis [67.41078214475341]
ABSAの動的アスペクト指向セマンティクスを学ぶために,DR-BERT(Dynamic Re-weighting BERT)を提案する。
具体的には、まずStack-BERT層を主エンコーダとして、文の全体的な意味を理解する。
次に、軽量な動的再重み付けアダプタ(DRA)を導入して微調整する。
論文 参考訳(メタデータ) (2022-03-30T14:48:46Z) - Zero-Shot Aspect-Based Sentiment Analysis [19.367516271270446]
本稿では,新たなドメインに対して注釈付きデータを用いることなく,ゼロショットABSAを実現する統一モデルを訓練することを目的とする。
我々は、アスペクト抽出(AE)、アスペクト感情分類(ASC)、エンドツーエンドのアスペクトベース感情分析(E2E ABSA)など、ABSAタスク上でのCORNを評価する。
論文 参考訳(メタデータ) (2022-02-04T00:51:46Z) - Exploiting BERT to improve aspect-based sentiment analysis performance
on Persian language [0.0]
本研究では,事前学習したBERTモデルを用いて,ABSAタスクにおける文ペア入力を活用する可能性を示す。
その結果,Pars-BERT事前学習モデルと自然言語推論助文(NLI-M)を用いることで,ABSAタスクの精度が91%向上することが示唆された。
論文 参考訳(メタデータ) (2020-12-02T16:47:20Z) - Understanding Pre-trained BERT for Aspect-based Sentiment Analysis [71.40586258509394]
本稿では、アスペクトベース感情分析(ABSA)におけるタスクに対するBERTのレビューから得られた事前学習された隠れ表現について分析する。
アスペクトや意見のアノテーションなしでラベル付けされていないコーパスでトレーニングされた(マスクされた)言語モデルの一般的なプロキシタスクが、ABSAの下流タスクにどのように重要な機能を提供するかは明らかではない。
論文 参考訳(メタデータ) (2020-10-31T02:21:43Z) - Improving Aspect-based Sentiment Analysis with Gated Graph Convolutional
Networks and Syntax-based Regulation [89.38054401427173]
Aspect-based Sentiment Analysis (ABSA) は、特定の側面に向けて文の感情極性を予測する。
依存関係ツリーは、ABSAの最先端のパフォーマンスを生成するために、ディープラーニングモデルに統合することができる。
本稿では,この2つの課題を克服するために,グラフに基づく新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2020-10-26T07:36:24Z) - Tasty Burgers, Soggy Fries: Probing Aspect Robustness in Aspect-Based
Sentiment Analysis [71.40390724765903]
アスペクトベースの感情分析(ABSA)は、テキストの特定の側面に対する感情を予測することを目的としている。
既存のABSAテストセットは、モデルが対象のアスペクトの感情を非ターゲットのアスペクトと区別できるかどうかを調査するために使用できない。
我々は、対象の側面の感情から、対象でない側面の相反する感情を解き放つための新しい例を生成する。
論文 参考訳(メタデータ) (2020-09-16T22:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。