論文の概要: DiaASQ: A Benchmark of Conversational Aspect-based Sentiment Quadruple
Analysis
- arxiv url: http://arxiv.org/abs/2211.05705v1
- Date: Thu, 10 Nov 2022 17:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:15:30.116051
- Title: DiaASQ: A Benchmark of Conversational Aspect-based Sentiment Quadruple
Analysis
- Title(参考訳): diaasq: 会話的側面に基づく感情分析のベンチマーク
- Authors: Bobo Li, Hao Fei, Yuhan Wu, Jinsong Zhang, Shengqiong Wu, Jingye Li,
Yijiang Liu, Lizi Liao, Tat-Seng Chua, Fei Li and Donghong Ji
- Abstract要約: そこで本稿では,対話におけるターゲット・アスペクト・オピニオン・センタティメントの感情四重項を検出するために,対話的側面に基づく感情四重項分析,すなわちDiaASQを導入する。
大規模で高品質な中国語データセットを手動で構築し、手動翻訳による英語版データセットも取得する。
エンドツーエンドの四重項予測を効果的に実行し、より優れた発話四重項抽出のために、リッチな対話特化特徴表現と談話特徴表現を組み込むことに成功している。
- 参考スコア(独自算出の注目度): 84.80347062834517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of aspect-based sentiment analysis (ABSA) within recent
decades shows great potential for real-world society. The current ABSA works,
however, are mostly limited to the scenario of a single text piece, leaving the
study in dialogue contexts unexplored. In this work, we introduce a novel task
of conversational aspect-based sentiment quadruple analysis, namely DiaASQ,
aiming to detect the sentiment quadruple of target-aspect-opinion-sentiment in
a dialogue. DiaASQ bridges the gap between fine-grained sentiment analysis and
conversational opinion mining. We manually construct a large-scale,
high-quality Chinese dataset and also obtain the English version dataset via
manual translation. We deliberately propose a neural model to benchmark the
task. It advances in effectively performing end-to-end quadruple prediction and
manages to incorporate rich dialogue-specific and discourse feature
representations for better cross-utterance quadruple extraction. We finally
point out several potential future works to facilitate the follow-up research
of this new task. The DiaASQ data is open at https://github.com/unikcc/DiaASQ
- Abstract(参考訳): 近年のアスペクトベース感情分析(ABSA)の急速な発展は、現実社会に大きな可能性を秘めている。
しかし、現在のABSAの作品は、ほとんどの場合、1つのテキストのシナリオに限られており、対話の文脈での研究は未調査のままである。
本研究では,対話におけるターゲット・アスペクト・オピニオン・センタティメントの感情四重項を検出することを目的とした,対話的側面に基づく感情四重項分析,すなわちdiaASQを提案する。
DiaASQは、きめ細かい感情分析と会話的な意見マイニングのギャップを埋める。
大規模で高品質な中国語データセットを手動で構築し、手動翻訳による英語版データセットも取得する。
我々は故意にそのタスクをベンチマークするためのニューラルモデルを提案する。
エンドツーエンドの四重項予測を効果的に実行し、より優れた発話四重項抽出のためにリッチな対話特化特徴表現と談話特徴表現を統合する。
最後に、この新しいタスクのフォローアップ研究を促進するための、いくつかの将来的な取り組みを指摘します。
DiaASQデータはhttps://github.com/unikcc/DiaASQで公開されている。
関連論文リスト
- PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - Dynamic Multi-Scale Context Aggregation for Conversational Aspect-Based
Sentiment Quadruple Analysis [4.768182075837568]
DiaASQは、対話の中で、ターゲット・アスペクト・オピニオン感覚の4倍を抽出することを目的としている。
既存の作業はそれぞれの発話を独立して符号化するので、長距離会話のコンテキストを捉えるのに苦労する。
本稿では,新しい動的マルチスケールコンテキストアグリゲーションネットワーク(DMCA)を提案する。
論文 参考訳(メタデータ) (2023-09-27T08:17:28Z) - Instruction Tuning for Few-Shot Aspect-Based Sentiment Analysis [72.9124467710526]
生成的アプローチは、テキストから(1つ以上の)4つの要素を1つのタスクとして抽出するために提案されている。
本稿では,ABSAを解くための統一的なフレームワークと,それに関連するサブタスクを提案する。
論文 参考訳(メタデータ) (2022-10-12T23:38:57Z) - Aspect Sentiment Quad Prediction as Paraphrase Generation [53.33072918744124]
Aspect Sentiment Quad Prediction (ASQP)タスクを導入し、与えられた意見文に対するクワッド内のすべての感情要素を共同で検出することを目的とした。
本稿では,ASQP タスクをパラフレーズ生成プロセスにキャストする新しいtextscParaphrase モデリングパラダイムを提案する。
一方、感情要素のセマンティクスは、自然言語形式でそれらを生成する学習によって完全に活用することができる。
論文 参考訳(メタデータ) (2021-10-02T12:57:27Z) - BiERU: Bidirectional Emotional Recurrent Unit for Conversational
Sentiment Analysis [18.1320976106637]
会話感情分析と単文感情分析の主な違いは、文脈情報の存在である。
既存のアプローチでは、会話内の異なるパーティを区別し、コンテキスト情報をモデル化するために複雑なディープラーニング構造を採用している。
本稿では,会話感情分析のための双方向感情的反復単位という,高速でコンパクトでパラメータ効率のよい非依存フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-31T11:13:13Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。