論文の概要: ATP: A holistic attention integrated approach to enhance ABSA
- arxiv url: http://arxiv.org/abs/2208.02653v1
- Date: Thu, 4 Aug 2022 13:32:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:36:21.253291
- Title: ATP: A holistic attention integrated approach to enhance ABSA
- Title(参考訳): ATP:ABSAを強化するための全体的注意統合アプローチ
- Authors: Ashish Kumar (1), Vasundhra Dahiya (2), Aditi Sharan (1) ((1)
Jawaharlal Nehru University, New Delhi, India, (2) Indian Institute of
Technology, Jodhpur, India)
- Abstract要約: アスペクトベース感情分析(ABSA)は、あるアスペクトに対するレビュー文の感情極性を特定する。
本稿では,依存性解析木を用いて位置情報を抽出する手法を提案する。
我々はSemEval'14データセットで実験を行い、ABSAに対する依存性解析と関係に基づく注意の効果を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aspect based sentiment analysis (ABSA) deals with the identification of the
sentiment polarity of a review sentence towards a given aspect. Deep Learning
sequential models like RNN, LSTM, and GRU are current state-of-the-art methods
for inferring the sentiment polarity. These methods work well to capture the
contextual relationship between the words of a review sentence. However, these
methods are insignificant in capturing long-term dependencies. Attention
mechanism plays a significant role by focusing only on the most crucial part of
the sentence. In the case of ABSA, aspect position plays a vital role. Words
near to aspect contribute more while determining the sentiment towards the
aspect. Therefore, we propose a method that captures the position based
information using dependency parsing tree and helps attention mechanism. Using
this type of position information over a simple word-distance-based position
enhances the deep learning model's performance. We performed the experiments on
SemEval'14 dataset to demonstrate the effect of dependency parsing
relation-based attention for ABSA.
- Abstract(参考訳): アスペクトベース感情分析(absa)は、与えられたアスペクトに対するレビュー文の感情極性の特定を扱う。
RNN、LSTM、GRUといったディープラーニングシーケンシャルモデルは、感情極性を推定するための最先端の手法である。
これらの手法は、レビュー文の単語間の文脈関係を捉えるのに有効である。
しかし、これらの手法は長期的な依存関係を捉える上で重要ではない。
注意機構は文の最も重要な部分にのみ焦点をあてることで重要な役割を果たす。
ABSAの場合、アスペクトの位置は重要な役割を果たす。
アスペクトに近い言葉は、アスペクトに対する感情を決定しながら、より貢献します。
そこで本研究では,依存性解析木を用いて位置情報を取得する手法を提案する。
単純な単語距離に基づく位置情報を用いた場合,深層学習モデルの性能が向上する。
semeval'14データセットで実験を行い,absaに対する依存解析関係に基づく注意の効果を実証した。
関連論文リスト
- Amplifying Aspect-Sentence Awareness: A Novel Approach for Aspect-Based Sentiment Analysis [2.9045498954705886]
Aspect-Based Sentiment Analysis (ABSA)は自然言語処理(NLP)においてますます重要になっている
ABSAは、テキストで言及されている特定の側面に関する感情を抽出することによって、従来の感情分析を越えている。
A3SN(Amplifying Aspect-Sentence Awareness)は,アスペクト・センス・アウェアネスを増幅することでABSAを強化する技術である。
論文 参考訳(メタデータ) (2024-05-14T10:29:59Z) - A Hybrid Approach To Aspect Based Sentiment Analysis Using Transfer Learning [3.30307212568497]
本稿では,移動学習を用いたアスペクトベース感性分析のためのハイブリッド手法を提案する。
このアプローチは、大きな言語モデル(LLM)と従来の構文的依存関係の両方の長所を利用して、弱い教師付きアノテーションを生成することに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-25T23:02:33Z) - Object Localization under Single Coarse Point Supervision [107.46800858130658]
本稿では,粗い点アノテーションを用いたPOL手法を提案する。
CPRは、ポイントバッグを構築し、セマンティック関連点を選択し、マルチインスタンス学習(MIL)を通してセマンティックセンターポイントを生成する。
このようにして、CPRは、粗い点監督の下で高性能オブジェクトローカライザのトレーニングを保証する、弱い制御された進化手順を定義する。
論文 参考訳(メタデータ) (2022-03-17T14:14:11Z) - A Simple Information-Based Approach to Unsupervised Domain-Adaptive
Aspect-Based Sentiment Analysis [58.124424775536326]
本稿では,相互情報に基づくシンプルだが効果的な手法を提案し,それらの用語を抽出する。
実験の結果,提案手法はクロスドメインABSAの最先端手法よりも4.32%高い性能を示した。
論文 参考訳(メタデータ) (2022-01-29T10:18:07Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z) - Deep Context- and Relation-Aware Learning for Aspect-based Sentiment
Analysis [3.7175198778996483]
本研究では,深い文脈情報を持つサブタスク間での対話的関係を実現するディープ・コンテクスチュアライズド・リレーア・アウェア・ネットワーク(DCRAN)を提案する。
DCRANは3つの広く使用されているベンチマークにおいて、従来の最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-06-07T17:16:15Z) - Enhanced Aspect-Based Sentiment Analysis Models with Progressive
Self-supervised Attention Learning [103.0064298630794]
アスペクトベース感情分析(absa)では、多くのニューラルモデルに感情予測に対する各文脈単語の寄与を定量化するための注意機構が備わっている。
注目ABSAモデルに対する自己監督型注意学習の進歩的アプローチを提案する。
提案手法を3つの最先端の神経ABSAモデルに統合する。
論文 参考訳(メタデータ) (2021-03-05T02:50:05Z) - Understanding Pre-trained BERT for Aspect-based Sentiment Analysis [71.40586258509394]
本稿では、アスペクトベース感情分析(ABSA)におけるタスクに対するBERTのレビューから得られた事前学習された隠れ表現について分析する。
アスペクトや意見のアノテーションなしでラベル付けされていないコーパスでトレーニングされた(マスクされた)言語モデルの一般的なプロキシタスクが、ABSAの下流タスクにどのように重要な機能を提供するかは明らかではない。
論文 参考訳(メタデータ) (2020-10-31T02:21:43Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Simple Unsupervised Similarity-Based Aspect Extraction [0.9558392439655015]
アスペクト抽出のための単純なアプローチSUAExを提案する。
SUAExは教師なしであり、単語埋め込みの類似性のみに依存している。
3つの異なる領域のデータセットに対する実験結果から、SUAExは最先端の注目に基づくアプローチをわずかに上回る結果が得られることが示されている。
論文 参考訳(メタデータ) (2020-08-25T04:58:07Z) - A Position Aware Decay Weighted Network for Aspect based Sentiment
Analysis [3.1473798197405944]
ABSAでは、テキストはそれぞれの側面に応じて複数の感情を持つことができる。
ATSAの既存のアプローチのほとんどは、異なるサブネットワークを通してアスペクト情報を取り入れている。
本稿では,その側面の位置情報を活用するモデルを提案する。
論文 参考訳(メタデータ) (2020-05-03T09:22:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。