論文の概要: BERT-ASC: Auxiliary-Sentence Construction for Implicit Aspect Learning
in Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2203.11702v1
- Date: Tue, 22 Mar 2022 13:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 19:10:10.116489
- Title: BERT-ASC: Auxiliary-Sentence Construction for Implicit Aspect Learning
in Sentiment Analysis
- Title(参考訳): BERT-ASC:感覚分析における暗黙の学習のための補助文構築
- Authors: Ahmed Murtadha, Shengfeng Pan, Bo Wen, Jianlin Su, Wenze Zhang,
Yunfeng Liu
- Abstract要約: 統合されたフレームワークにおけるアスペクト分類とアスペクトベースの感情サブタスクに対処することを提案する。
まず,意味的・統語的情報を協調して,暗黙的側面の補助文を構築するメカニズムを提案する。
次に、BERTは、自動構築された補助文に応答してアスペクト特化表現を学習することを推奨する。
- 参考スコア(独自算出の注目度): 4.008465268899542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aspect-based sentiment analysis (ABSA) task aims to associate a piece of text
with a set of aspects and meanwhile infer their respective sentimental
polarities. Up to now, the state-of-the-art approaches are built upon
fine-tuning of various pre-trained language models. They commonly aim to learn
the aspect-specific representation in the corpus. Unfortunately, the aspect is
often expressed implicitly through a set of representatives and thus renders
implicit mapping process unattainable unless sufficient labeled examples.
In this paper, we propose to jointly address aspect categorization and
aspect-based sentiment subtasks in a unified framework. Specifically, we first
introduce a simple but effective mechanism that collaborates the semantic and
syntactic information to construct auxiliary-sentences for the implicit aspect.
Then, we encourage BERT to learn the aspect-specific representation in response
to the automatically constructed auxiliary-sentence instead of the aspect
itself. Finally, we empirically evaluate the performance of the proposed
solution by a comparative study on real benchmark datasets for both ABSA and
Targeted-ABSA tasks. Our extensive experiments show that it consistently
achieves state-of-the-art performance in terms of aspect categorization and
aspect-based sentiment across all datasets and the improvement margins are
considerable.
- Abstract(参考訳): アスペクトベース感情分析(absa:aspect-based sentiment analysis)タスクは、テキストの一部をアスペクトのセットに関連付けることを目的としている。
これまでのところ、最先端のアプローチは、さまざまな事前学習された言語モデルの微調整に基づいている。
彼らは一般的に、コーパスのアスペクト特化表現を学習することを目的としています。
残念なことに、このアスペクトは複数の代表を通して暗黙的に表現されることが多く、十分なラベル付き例がない限り、暗黙のマッピングプロセスは達成できない。
本稿では,アスペクト分類とアスペクトベースの感情サブタスクを統一フレームワークで協調的に扱うことを提案する。
具体的には,まず,意味的および構文的情報を協調して,暗黙的側面に対する補助的関係を構築する,単純かつ効果的なメカニズムを提案する。
そこで,BERTはアスペクト自体ではなく,自動構築された補助文に応答してアスペクト固有表現を学習することを推奨する。
最後に,ABSAタスクとTargeted-ABSAタスクの実際のベンチマークデータセットの比較により,提案手法の性能を実証的に評価した。
我々の広範な実験は、すべてのデータセットにおけるアスペクト分類とアスペクトベースの感情の観点から、常に最先端のパフォーマンスを達成し、改善マージンは相当に大きいことを示している。
関連論文リスト
- Exploiting Adaptive Contextual Masking for Aspect-Based Sentiment
Analysis [0.6827423171182154]
アスペクトベース知覚分析(Aspect-Based Sentiment Analysis、ABSA)は、与えられたテキストから多面的側面、意見、感情を抽出する問題である。
本稿では,ABSAのアスペクト・ターム抽出・アスペクト・センティメント・サブタスクを支援するために,コンテキストに基づく無関係なトークンを除去する適応マスキング手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T11:33:09Z) - Syntax-Informed Interactive Model for Comprehensive Aspect-Based
Sentiment Analysis [0.0]
総合ABSAのためのシンタクティック・依存性強化マルチタスクインタラクション・アーキテクチャ(SDEMTIA)を提案する。
我々のアプローチは、SDEIN(Syntactic Dependency Embedded Interactive Network)を用いた構文知識(依存関係と型)を革新的に活用する。
また,学習効率を高めるために,マルチタスク学習フレームワークに,新規で効率的なメッセージパッシング機構を組み込んだ。
論文 参考訳(メタデータ) (2023-11-28T16:03:22Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Incorporating Dynamic Semantics into Pre-Trained Language Model for
Aspect-based Sentiment Analysis [67.41078214475341]
ABSAの動的アスペクト指向セマンティクスを学ぶために,DR-BERT(Dynamic Re-weighting BERT)を提案する。
具体的には、まずStack-BERT層を主エンコーダとして、文の全体的な意味を理解する。
次に、軽量な動的再重み付けアダプタ(DRA)を導入して微調整する。
論文 参考訳(メタデータ) (2022-03-30T14:48:46Z) - Exploring Conditional Text Generation for Aspect-Based Sentiment
Analysis [28.766801337922306]
アスペクトベース感情分析(Aspect-based sentiment analysis、ABSA)は、ユーザ生成レビューを処理して評価対象を決定するNLPタスクである。
本稿では,ABSAを抽象的な要約型条件文生成タスクに変換し,目的,側面,極性を用いて補助文を生成することを提案する。
論文 参考訳(メタデータ) (2021-10-05T20:08:25Z) - Understanding Pre-trained BERT for Aspect-based Sentiment Analysis [71.40586258509394]
本稿では、アスペクトベース感情分析(ABSA)におけるタスクに対するBERTのレビューから得られた事前学習された隠れ表現について分析する。
アスペクトや意見のアノテーションなしでラベル付けされていないコーパスでトレーニングされた(マスクされた)言語モデルの一般的なプロキシタスクが、ABSAの下流タスクにどのように重要な機能を提供するかは明らかではない。
論文 参考訳(メタデータ) (2020-10-31T02:21:43Z) - Introducing Syntactic Structures into Target Opinion Word Extraction
with Deep Learning [89.64620296557177]
目的語抽出のためのディープラーニングモデルに文の構文構造を組み込むことを提案する。
また,ディープラーニングモデルの性能向上のために,新たな正規化手法を導入する。
提案モデルは,4つのベンチマークデータセット上での最先端性能を広範囲に解析し,達成する。
論文 参考訳(メタデータ) (2020-10-26T07:13:17Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Hierarchical Interaction Networks with Rethinking Mechanism for
Document-level Sentiment Analysis [37.20068256769269]
文書レベルの感性分析(DSA)は、あいまいなセマンティックリンクと感情情報の複雑化により、より困難である。
そこで本研究では,DSAにおける対象の明示的パターンと感情文脈を用いた識別表現を効果的に生成する方法について検討する。
感性に基づく再考機構(SR)を,感情ラベル情報を用いてHINを精製し,より感情に敏感な文書表現を学習することによって設計する。
論文 参考訳(メタデータ) (2020-07-16T16:27:38Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。