論文の概要: Triple GNNs: Introducing Syntactic and Semantic Information for Conversational Aspect-Based Quadruple Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2403.10065v1
- Date: Fri, 15 Mar 2024 07:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 18:19:27.868646
- Title: Triple GNNs: Introducing Syntactic and Semantic Information for Conversational Aspect-Based Quadruple Sentiment Analysis
- Title(参考訳): Triple GNNs:会話型四重項知覚分析のための構文情報と意味情報の導入
- Authors: Binbin Li, Yuqing Li, Siyu Jia, Bingnan Ma, Yu Ding, Zisen Qi, Xingbang Tan, Menghan Guo, Shenghui Liu,
- Abstract要約: 本稿では、DiaASQを強化するために、Triple GNNsネットワークを導入する。
発話内の構文依存をモデル化するためにGCN(Graph Convolutional Network)と、発話間の相互作用を構築するためにDual Graph Attention Network(DualGAT)を採用している。
2つの標準データセットの実験により、我々のモデルは最先端のベースラインを大きく上回っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 7.636033043459789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational Aspect-Based Sentiment Analysis (DiaASQ) aims to detect quadruples \{target, aspect, opinion, sentiment polarity\} from given dialogues. In DiaASQ, elements constituting these quadruples are not necessarily confined to individual sentences but may span across multiple utterances within a dialogue. This necessitates a dual focus on both the syntactic information of individual utterances and the semantic interaction among them. However, previous studies have primarily focused on coarse-grained relationships between utterances, thus overlooking the potential benefits of detailed intra-utterance syntactic information and the granularity of inter-utterance relationships. This paper introduces the Triple GNNs network to enhance DiaAsQ. It employs a Graph Convolutional Network (GCN) for modeling syntactic dependencies within utterances and a Dual Graph Attention Network (DualGATs) to construct interactions between utterances. Experiments on two standard datasets reveal that our model significantly outperforms state-of-the-art baselines. The code is available at \url{https://github.com/nlperi2b/Triple-GNNs-}.
- Abstract(参考訳): Conversational Aspect-Based Sentiment Analysis (DiaASQ) は、与えられた対話から四重項 \{target, aspects, opinion, sentiment polarity\} を検出することを目的としている。
DiaASQでは、これらの四重項を構成する要素は必ずしも個々の文に限られるのではなく、対話の中で複数の発話にまたがる可能性がある。
これは、個々の発話の統語的情報とそれら間の意味的相互作用の両方に重きを置く必要がある。
しかし、従来の研究では、発話間の粗粒度の関係に主に焦点を合わせており、詳細な発話内構文情報の潜在的な利点と、発話間関係の粒度を見極めている。
本稿では、DiaAsQを強化するために、Triple GNNsネットワークを導入する。
発話内の構文依存をモデル化するためにGCN(Graph Convolutional Network)と、発話間の相互作用を構築するためにDual Graph Attention Network(DualGAT)を採用している。
2つの標準データセットの実験により、我々のモデルは最先端のベースラインを大きく上回っていることが明らかとなった。
コードは \url{https://github.com/nlperi2b/Triple-GNNs-} で公開されている。
関連論文リスト
- Dual Encoder: Exploiting the Potential of Syntactic and Semantic for
Aspect Sentiment Triplet Extraction [19.375196127313348]
Aspect Sentiment Triple extract (ASTE) は、微粒な感情分析における新たな課題である。
本稿では,BERTチャネルによる意味情報をキャプチャするデュアルチャネルエンコーダと,総合構文情報キャプチャのための拡張LSTMチャネルを提案する。
我々はこれらのモジュールのシナジーを活用して、ASTEタスクにおける構文情報と意味情報の重要な可能性を活用する。
論文 参考訳(メタデータ) (2024-02-23T15:07:13Z) - Multi-grained Hypergraph Interest Modeling for Conversational
Recommendation [75.65483522949857]
複雑な履歴データの下でユーザの興味を捉えるために, マルチグラデーション・ハイパーグラフ・インフォメーション・モデリング手法を提案する。
提案手法では,まず,ユーザの過去の対話セッションをモデル化し,セッションベースハイパーグラフを作成するためにハイパーグラフ構造を用いる。
さらに,2種類のハイパーグラフに対して多粒度ハイパーグラフの畳み込みを行い,拡張表現を用いて関心を意識したCRSを開発する。
論文 参考訳(メタデータ) (2023-05-04T13:13:44Z) - BiSyn-GAT+: Bi-Syntax Aware Graph Attention Network for Aspect-based
Sentiment Analysis [23.223136577272516]
アスペクトベースの感情分析は、アスペクト固有の感情極性推論のためにアスペクトと対応する感情を調整することを目的としている。
近年,グラフニューラルネットワークによる依存性の構文情報の利用が最も人気になっている。
この問題に対処するために,Bi-Syntax 対応グラフ注意ネットワーク (BiSyn-GAT+) を提案する。
論文 参考訳(メタデータ) (2022-04-06T22:18:12Z) - Semantic and Syntactic Enhanced Aspect Sentiment Triplet Extraction [18.331779474247323]
Aspect Sentiment Triplet extractは、文章から三つ子を抽出することを目的としており、それぞれの三つ子には、エンティティ、関連する感情、そして感情の理由を説明する意見が含まれる。
本稿では,三重項要素間の統語的・意味的関係を完全に活用し,共同抽出を行うセマンティック・シンタクティック・エンハンスメント・アスペクト・センチメント三重項抽出モデル(S3E2)を提案する。
論文 参考訳(メタデータ) (2021-06-07T03:16:51Z) - Relationship-based Neural Baby Talk [10.342180619706724]
幾何学的相互作用を探索するtextitpatial relationship、意味的相互作用を抽出するtextitsemantic relationship、隠された情報をキャプチャするtextitimplicit relationshipの3つの主な関係を検討する。
提案したR-NBTモデルは,COCOデータセット上で訓練された最先端モデルよりも3つの画像キャプション生成タスクで優れる。
論文 参考訳(メタデータ) (2021-03-08T15:51:24Z) - Discovering Dialog Structure Graph for Open-Domain Dialog Generation [51.29286279366361]
chitchat corporaの対話構造を無監督で発見します。
次に、下流システムでのダイアログ生成を容易にするために利用します。
本稿では,グラフニューラルネットワーク(DVAE-GNN)を用いた離散変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-12-31T10:58:37Z) - Dialogue Relation Extraction with Document-level Heterogeneous Graph
Attention Networks [21.409522845011907]
対話関係抽出(DRE)は,多人数対話で言及される2つのエンティティ間の関係を検出することを目的としている。
本稿では,グラフが有意に接続された話者,エンティティ,エンティティタイプ,発話ノードを含むDREのためのグラフ注意ネットワーク方式を提案する。
このグラフに基づくアプローチは,対話における異なるエンティティペア間の関係を効果的に捉え,最先端のアプローチよりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2020-09-10T18:51:48Z) - DCR-Net: A Deep Co-Interactive Relation Network for Joint Dialog Act
Recognition and Sentiment Classification [77.59549450705384]
ダイアログシステムでは、ダイアログアクト認識と感情分類は2つの相関タスクである。
既存のシステムのほとんどは、それらを別々のタスクとして扱うか、単に2つのタスクを一緒にモデル化するだけです。
本稿では,2つのタスク間の相互作用をモデル化するディープ・コ・インタラクティブ・リレーショナル・ネットワーク(DCR-Net)を提案する。
論文 参考訳(メタデータ) (2020-08-16T14:13:32Z) - Jointly Cross- and Self-Modal Graph Attention Network for Query-Based
Moment Localization [77.21951145754065]
本稿では,共同グラフを渡る反復的メッセージのプロセスとして,このタスクをリキャストするクロスモーダルグラフ注意ネットワーク(CSMGAN)を提案する。
CSMGANは2つのモード間の高次相互作用を効果的に捉えることができ、より正確な局所化を可能にします。
論文 参考訳(メタデータ) (2020-08-04T08:25:24Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Iterative Context-Aware Graph Inference for Visual Dialog [126.016187323249]
本稿では,新しいコンテキスト認識グラフ(CAG)ニューラルネットワークを提案する。
グラフの各ノードは、オブジェクトベース(視覚)と履歴関連(テキスト)コンテキスト表現の両方を含む、共同意味機能に対応している。
論文 参考訳(メタデータ) (2020-04-05T13:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。