論文の概要: Semantic and Syntactic Enhanced Aspect Sentiment Triplet Extraction
- arxiv url: http://arxiv.org/abs/2106.03315v1
- Date: Mon, 7 Jun 2021 03:16:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:15:52.517093
- Title: Semantic and Syntactic Enhanced Aspect Sentiment Triplet Extraction
- Title(参考訳): セマンティック・シンタクティック強化アスペクト・センチメント・トリプレット抽出
- Authors: Zhexue Chen, Hong Huang, Bang Liu, Xuanhua Shi, Hai Jin
- Abstract要約: Aspect Sentiment Triplet extractは、文章から三つ子を抽出することを目的としており、それぞれの三つ子には、エンティティ、関連する感情、そして感情の理由を説明する意見が含まれる。
本稿では,三重項要素間の統語的・意味的関係を完全に活用し,共同抽出を行うセマンティック・シンタクティック・エンハンスメント・アスペクト・センチメント三重項抽出モデル(S3E2)を提案する。
- 参考スコア(独自算出の注目度): 18.331779474247323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aspect Sentiment Triplet Extraction (ASTE) aims to extract triplets from
sentences, where each triplet includes an entity, its associated sentiment, and
the opinion span explaining the reason for the sentiment. Most existing
research addresses this problem in a multi-stage pipeline manner, which
neglects the mutual information between such three elements and has the problem
of error propagation. In this paper, we propose a Semantic and Syntactic
Enhanced aspect Sentiment triplet Extraction model (S3E2) to fully exploit the
syntactic and semantic relationships between the triplet elements and jointly
extract them. Specifically, we design a Graph-Sequence duel representation and
modeling paradigm for the task of ASTE: we represent the semantic and syntactic
relationships between word pairs in a sentence by graph and encode it by Graph
Neural Networks (GNNs), as well as modeling the original sentence by LSTM to
preserve the sequential information. Under this setting, we further apply a
more efficient inference strategy for the extraction of triplets. Extensive
evaluations on four benchmark datasets show that S3E2 significantly outperforms
existing approaches, which proves our S3E2's superiority and flexibility in an
end-to-end fashion.
- Abstract(参考訳): アスペクト感情三重項抽出(aspect sentiment triplet extraction, aste)は、各三重項にエンティティ、関連する感情、および感情の理由を説明する意見を含む文から三重項を抽出することを目的としている。
既存の研究の多くは、これらの3つの要素間の相互情報を無視する多段階パイプライン方式でこの問題に対処している。
本稿では,三重項要素間の統語的・意味的関係を完全に活用し,それらを共同抽出するセマンティック・シンタクティック・エンハンスメント・アスペクト・センティメント三重項抽出モデル(S3E2)を提案する。
具体的には,文中の単語ペア間の意味的・統語的関係をグラフで表現し,それをグラフニューラルネットワーク(GNN)で符号化し,LSTMで元の文をモデル化して逐次情報を保存する,ASTEのタスクのためのグラフシーケンスデュエル表現とモデリングパラダイムを設計する。
この設定の下では、トリプレットの抽出にさらに効率的な推論戦略を適用する。
4つのベンチマークデータセットの大規模な評価は、S3E2が既存のアプローチを大幅に上回っていることを示している。
関連論文リスト
- A Bi-consolidating Model for Joint Relational Triple Extraction [3.972061685570092]
リレーショナルトリプルを抽出する現在の手法は、エンティティ認識に依存することなく、生文の可能なエンティティペアに基づいて直接予測を行う。
このタスクは、複数の関係三重項が文中に1つまたは2つの実体を共有するという深刻な意味的重なり合う問題に悩まされる。
関係三重関係に関連する局所的・大域的意味的特徴を同時に強化することにより、この問題に対処するバイコンソリデーションモデルを提案する。
論文 参考訳(メタデータ) (2024-04-05T04:04:23Z) - Dual Encoder: Exploiting the Potential of Syntactic and Semantic for
Aspect Sentiment Triplet Extraction [19.375196127313348]
Aspect Sentiment Triple extract (ASTE) は、微粒な感情分析における新たな課題である。
本稿では,BERTチャネルによる意味情報をキャプチャするデュアルチャネルエンコーダと,総合構文情報キャプチャのための拡張LSTMチャネルを提案する。
我々はこれらのモジュールのシナジーを活用して、ASTEタスクにおける構文情報と意味情報の重要な可能性を活用する。
論文 参考訳(メタデータ) (2024-02-23T15:07:13Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Prompt Based Tri-Channel Graph Convolution Neural Network for Aspect
Sentiment Triplet Extraction [63.0205418944714]
Aspect Sentiment Triplet extract (ASTE)は、ある文の三つ子を抽出する新しいタスクである。
近年の研究では、単語関係を二次元テーブルにエンコードするテーブル充填パラダイムを用いてこの問題に対処する傾向にある。
本稿では, 関係表をグラフに変換し, より包括的な関係情報を探索する, Prompt-based Tri-Channel Graph Convolution Neural Network (PT-GCN) と呼ばれるASTEタスクの新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-12-18T12:46:09Z) - Collaborative Group: Composed Image Retrieval via Consensus Learning from Noisy Annotations [67.92679668612858]
我々は,集団が個人より優れているという心理的概念に触発されたコンセンサスネットワーク(Css-Net)を提案する。
Css-Netは,(1)コンセンサスモジュールと4つのコンセンサスモジュール,(2)コンセンサス間の相互作用の学習を促進するKulback-Leibler分散損失の2つのコアコンポーネントから構成される。
ベンチマークデータセット、特にFashionIQでは、Css-Netが大幅に改善されている。特に、R@10が2.77%、R@50が6.67%増加し、リコールが大幅に向上している。
論文 参考訳(メタデータ) (2023-06-03T11:50:44Z) - HIORE: Leveraging High-order Interactions for Unified Entity Relation
Extraction [85.80317530027212]
本稿では,統合エンティティ関係抽出のための新しい手法であるHIOREを提案する。
重要な洞察は、単語ペア間の複雑な関連を活用することである。
実験の結果,HIOREは従来最高の統一モデルよりも1.11.8 F1ポイント向上した。
論文 参考訳(メタデータ) (2023-05-07T14:57:42Z) - STAGE: Span Tagging and Greedy Inference Scheme for Aspect Sentiment
Triplet Extraction [17.192861356588597]
Aspect Sentiment Triplet extract (ASTE) は感情分析研究において新たな課題となっている。
Span TAgging and Greedy infErence (STAGE) を提案する。
論文 参考訳(メタデータ) (2022-11-28T02:07:03Z) - Span-level Bidirectional Cross-attention Framework for Aspect Sentiment
Triplet Extraction [10.522014946035664]
Aspect Sentiment Triplet extract (ASTE)は、アスペクト項、感情、意見項の三つ子をレビュー文から抽出することを目的とした、新しいきめ細かい感情分析タスクである。
本稿では,ASTEのための双方向双方向多目的フレームワークを提案する。
我々のフレームワークは最先端の手法よりも優れており、マルチトークンエンティティを用いた三重項予測の性能が向上している。
論文 参考訳(メタデータ) (2022-04-27T02:55:43Z) - Semantic Compositional Learning for Low-shot Scene Graph Generation [122.51930904132685]
多くのシーングラフ生成(SGG)モデルは、トレーニングに限定された注釈付き関係トリプルのみを使用する。
本稿では,新たな意味論的構成学習戦略を提案する。
最近の3つのSGGモデルでは、我々の戦略を追加することで、その性能が50%近く向上する。
論文 参考訳(メタデータ) (2021-08-19T10:13:55Z) - Syntactic representation learning for neural network based TTS with
syntactic parse tree traversal [49.05471750563229]
本稿では,構文解析木に基づく構文表現学習手法を提案し,構文構造情報を自動的に活用する。
実験の結果,提案手法の有効性が示された。
複数の構文解析木を持つ文では、合成音声から韻律的差異が明確に認識される。
論文 参考訳(メタデータ) (2020-12-13T05:52:07Z) - Position-Aware Tagging for Aspect Sentiment Triplet Extraction [37.76744150888183]
Aspect Sentiment Triplet extract (ASTE) は、対象エンティティのトリプルを抽出するタスクであり、その感情の理由を説明する。
我々の観察では、三重項内の3つの要素は互いに非常に関連しており、このような三重項を抽出するジョイントモデルを構築する動機となっている。
本稿では,三つ子を共同抽出可能な新しい位置認識型タグ付け方式による最初のエンドツーエンドモデルを提案する。
論文 参考訳(メタデータ) (2020-10-06T10:40:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。