論文の概要: DiaASQ : A Benchmark of Conversational Aspect-based Sentiment Quadruple
Analysis
- arxiv url: http://arxiv.org/abs/2211.05705v4
- Date: Mon, 22 May 2023 10:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 05:17:00.784292
- Title: DiaASQ : A Benchmark of Conversational Aspect-based Sentiment Quadruple
Analysis
- Title(参考訳): DiaASQ : 対話型アスペクトに基づく知覚4重解析のベンチマーク
- Authors: Bobo Li, Hao Fei, Fei Li, Yuhan Wu, Jinsong Zhang, Shengqiong Wu,
Jingye Li, Yijiang Liu, Lizi Liao, Tat-Seng Chua and Donghong Ji
- Abstract要約: 本稿では,対話における目標視差感の4倍を検出することを目的としたDiaASQを紹介する。
中国語と英語の両方で大規模なDiaASQデータセットを手作業で構築する。
我々は、タスクをベンチマークするニューラルネットワークを開発し、エンドツーエンドの4倍の予測を効果的に実行する。
- 参考スコア(独自算出の注目度): 84.80347062834517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of aspect-based sentiment analysis (ABSA) within recent
decades shows great potential for real-world society. The current ABSA works,
however, are mostly limited to the scenario of a single text piece, leaving the
study in dialogue contexts unexplored. To bridge the gap between fine-grained
sentiment analysis and conversational opinion mining, in this work, we
introduce a novel task of conversational aspect-based sentiment quadruple
analysis, namely DiaASQ, aiming to detect the quadruple of
target-aspect-opinion-sentiment in a dialogue. We manually construct a
large-scale high-quality DiaASQ dataset in both Chinese and English languages.
We deliberately develop a neural model to benchmark the task, which advances in
effectively performing end-to-end quadruple prediction, and manages to
incorporate rich dialogue-specific and discourse feature representations for
better cross-utterance quadruple extraction. We hope the new benchmark will
spur more advancements in the sentiment analysis community.
- Abstract(参考訳): 近年のアスペクトベース感情分析(ABSA)の急速な発展は、現実社会に大きな可能性を秘めている。
しかし、現在のABSAの作品は、ほとんどの場合、1つのテキストのシナリオに限られており、対話の文脈での研究は未調査のままである。
本研究は,きめ細かな感情分析と会話的意見マイニングのギャップを埋めるため,対話におけるターゲット・スペクト・オピニオン・センテンションの4倍検出を目的とした対話的側面に基づく感情4倍解析(diaasq)の新たなタスクを提案する。
中国語と英語の両方で大規模なDiaASQデータセットを手作業で構築する。
タスクをベンチマークするためのニューラルモデルを意図的に開発し,エンドツーエンドの4重項予測を効果的に実行し,対話特有の特徴表現や談話特徴表現を多用し,クロス発話4重項抽出を改善する。
新しいベンチマークが感情分析コミュニティのさらなる進歩を促すことを期待している。
関連論文リスト
- PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - Dynamic Multi-Scale Context Aggregation for Conversational Aspect-Based
Sentiment Quadruple Analysis [4.768182075837568]
DiaASQは、対話の中で、ターゲット・アスペクト・オピニオン感覚の4倍を抽出することを目的としている。
既存の作業はそれぞれの発話を独立して符号化するので、長距離会話のコンテキストを捉えるのに苦労する。
本稿では,新しい動的マルチスケールコンテキストアグリゲーションネットワーク(DMCA)を提案する。
論文 参考訳(メタデータ) (2023-09-27T08:17:28Z) - Instruction Tuning for Few-Shot Aspect-Based Sentiment Analysis [72.9124467710526]
生成的アプローチは、テキストから(1つ以上の)4つの要素を1つのタスクとして抽出するために提案されている。
本稿では,ABSAを解くための統一的なフレームワークと,それに関連するサブタスクを提案する。
論文 参考訳(メタデータ) (2022-10-12T23:38:57Z) - Aspect Sentiment Quad Prediction as Paraphrase Generation [53.33072918744124]
Aspect Sentiment Quad Prediction (ASQP)タスクを導入し、与えられた意見文に対するクワッド内のすべての感情要素を共同で検出することを目的とした。
本稿では,ASQP タスクをパラフレーズ生成プロセスにキャストする新しいtextscParaphrase モデリングパラダイムを提案する。
一方、感情要素のセマンティクスは、自然言語形式でそれらを生成する学習によって完全に活用することができる。
論文 参考訳(メタデータ) (2021-10-02T12:57:27Z) - BiERU: Bidirectional Emotional Recurrent Unit for Conversational
Sentiment Analysis [18.1320976106637]
会話感情分析と単文感情分析の主な違いは、文脈情報の存在である。
既存のアプローチでは、会話内の異なるパーティを区別し、コンテキスト情報をモデル化するために複雑なディープラーニング構造を採用している。
本稿では,会話感情分析のための双方向感情的反復単位という,高速でコンパクトでパラメータ効率のよい非依存フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-31T11:13:13Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。