論文の概要: BERT-ASC: Auxiliary-Sentence Construction for Implicit Aspect Learning in Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2203.11702v3
- Date: Fri, 23 Aug 2024 07:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 20:34:38.716776
- Title: BERT-ASC: Auxiliary-Sentence Construction for Implicit Aspect Learning in Sentiment Analysis
- Title(参考訳): BERT-ASC:感覚分析における暗黙の学習のための補助文構築
- Authors: Murtadha Ahmed, Bo Wen, Shengfeng Pan, Jianlin Su, Luo Ao, Yunfeng Liu,
- Abstract要約: 本稿ではアスペクト分類とアスペクトベース感情サブタスクに対処する統合フレームワークを提案する。
コーパスのセマンティック情報を用いて暗黙的側面のための補助文を構築する機構を導入する。
次に、BERTはアスペクト自体ではなく、この補助文に応答してアスペクト固有の表現を学ぶことを推奨する。
- 参考スコア(独自算出の注目度): 4.522719296659495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aspect-based sentiment analysis (ABSA) aims to associate a text with a set of aspects and infer their respective sentimental polarities. State-of-the-art approaches are built on fine-tuning pre-trained language models, focusing on learning aspect-specific representations from the corpus. However, aspects are often expressed implicitly, making implicit mapping challenging without sufficient labeled examples, which may be scarce in real-world scenarios. This paper proposes a unified framework to address aspect categorization and aspect-based sentiment subtasks. We introduce a mechanism to construct an auxiliary-sentence for the implicit aspect using the corpus's semantic information. We then encourage BERT to learn aspect-specific representation in response to this auxiliary-sentence, not the aspect itself. We evaluate our approach on real benchmark datasets for both ABSA and Targeted-ABSA tasks. Our experiments show that it consistently achieves state-of-the-art performance in aspect categorization and aspect-based sentiment across all datasets, with considerable improvement margins. The BERT-ASC code is available at https://github.com/amurtadha/BERT-ASC.
- Abstract(参考訳): アスペクトベースの感情分析(ABSA)は、テキストを一連の側面に関連付け、それぞれの感情の極性を推測することを目的としている。
State-of-the-artアプローチは、コーパスからアスペクト固有の表現を学ぶことに焦点を当てた、微調整された事前訓練された言語モデルに基づいて構築されている。
しかし、アスペクトはしばしば暗黙的に表現され、実世界のシナリオでは不十分な十分なラベル付き例なしで暗黙のマッピングを困難にしている。
本稿ではアスペクト分類とアスペクトベース感情サブタスクに対処する統合フレームワークを提案する。
コーパスのセマンティック情報を用いて暗黙的側面のための補助文を構築する機構を導入する。
次に、BERTはアスペクト自体ではなく、この補助文に応答してアスペクト固有の表現を学ぶことを推奨する。
ABSAおよびTargeted-ABSAタスクの実際のベンチマークデータセットに対するアプローチを評価する。
実験の結果,すべてのデータセットにおけるアスペクト分類とアスペクトベース感情において,最先端のパフォーマンスを継続的に達成し,大幅な改善率を実現していることがわかった。
BERT-ASCコードはhttps://github.com/amurtadha/BERT-ASCで公開されている。
関連論文リスト
- A Hybrid Approach To Aspect Based Sentiment Analysis Using Transfer Learning [3.30307212568497]
本稿では,移動学習を用いたアスペクトベース感性分析のためのハイブリッド手法を提案する。
このアプローチは、大きな言語モデル(LLM)と従来の構文的依存関係の両方の長所を利用して、弱い教師付きアノテーションを生成することに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-25T23:02:33Z) - Incorporating Dynamic Semantics into Pre-Trained Language Model for
Aspect-based Sentiment Analysis [67.41078214475341]
ABSAの動的アスペクト指向セマンティクスを学ぶために,DR-BERT(Dynamic Re-weighting BERT)を提案する。
具体的には、まずStack-BERT層を主エンコーダとして、文の全体的な意味を理解する。
次に、軽量な動的再重み付けアダプタ(DRA)を導入して微調整する。
論文 参考訳(メタデータ) (2022-03-30T14:48:46Z) - Out of Context: A New Clue for Context Modeling of Aspect-based
Sentiment Analysis [54.735400754548635]
ABSAは、与えられた側面に関してレビューで表現された感情を予測することを目的としている。
与えられたアスペクトは、コンテキストモデリングプロセスにおけるコンテキストからの新たなヒントと見なされるべきである。
異なるバックボーンに基づいて複数のアスペクト認識コンテキストエンコーダを設計する。
論文 参考訳(メタデータ) (2021-06-21T02:26:03Z) - Understanding Pre-trained BERT for Aspect-based Sentiment Analysis [71.40586258509394]
本稿では、アスペクトベース感情分析(ABSA)におけるタスクに対するBERTのレビューから得られた事前学習された隠れ表現について分析する。
アスペクトや意見のアノテーションなしでラベル付けされていないコーパスでトレーニングされた(マスクされた)言語モデルの一般的なプロキシタスクが、ABSAの下流タスクにどのように重要な機能を提供するかは明らかではない。
論文 参考訳(メタデータ) (2020-10-31T02:21:43Z) - Context-Guided BERT for Targeted Aspect-Based Sentiment Analysis [14.394987796101349]
自己注意モデルにコンテキストを追加することで(T)ABSAの性能が向上するかどうかを検討する。
本稿では,異なるコンテキスト下で注意を分散することを学ぶための2種類のコンテキストガイドBERT(CG-BERT)を提案する。
我々の研究は、文脈に基づく自然言語タスクのための事前学習された自己注意に基づく言語モデルに文脈依存性を追加するという有用性を示す。
論文 参考訳(メタデータ) (2020-10-15T05:01:20Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Consensus-Aware Visual-Semantic Embedding for Image-Text Matching [69.34076386926984]
画像テキストマッチングは、視覚と言語をブリッジする上で中心的な役割を果たす。
既存のアプローチのほとんどは、表現を学ぶためにイメージテキストインスタンスペアのみに依存しています。
コンセンサスを意識したビジュアル・セマンティック・エンベディングモデルを提案し,コンセンサス情報を組み込む。
論文 参考訳(メタデータ) (2020-07-17T10:22:57Z) - A Hybrid Approach for Aspect-Based Sentiment Analysis Using Deep
Contextual Word Embeddings and Hierarchical Attention [4.742874328556818]
我々は、アスペクトベース感性分析(HAABSA)のための最先端のハイブリッドアプローチを2方向に拡張する。
まず、テキスト中の単語の意味をよりよく扱うために、文脈的でない単語埋め込みを文脈的でない単語埋め込みに置き換える。
次に、HAABSA高レベル表現に付加的な注意層を追加することにより、入力データのモデリングにおけるメソッドの柔軟性を向上させる。
論文 参考訳(メタデータ) (2020-04-18T17:54:55Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。