論文の概要: Generative Aspect-Based Sentiment Analysis with Contrastive Learning and
Expressive Structure
- arxiv url: http://arxiv.org/abs/2211.07743v1
- Date: Mon, 14 Nov 2022 20:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 14:16:04.265534
- Title: Generative Aspect-Based Sentiment Analysis with Contrastive Learning and
Expressive Structure
- Title(参考訳): コントラスト学習と表現構造を用いた生成的アスペクトベース感情分析
- Authors: Joseph J. Peper, Lu Wang
- Abstract要約: 本稿では、ACOS四重項抽出のための構造生成を改善する2つの技術からなるGEN-SCL-NATを紹介する。
まず、鍵入力属性間で識別可能な入力表現を生成することをモデルに促すことにより、4倍予測を支援する教師付きコントラスト学習目標であるGEN-SCLを提案する。
第二にGEN-NATは、自己回帰エンコーダデコーダモデルに適応し、生成方式で四重項を抽出する新しい構造生成フォーマットである。
- 参考スコア(独自算出の注目度): 6.125761583306958
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Generative models have demonstrated impressive results on Aspect-based
Sentiment Analysis (ABSA) tasks, particularly for the emerging task of
extracting Aspect-Category-Opinion-Sentiment (ACOS) quadruples. However, these
models struggle with implicit sentiment expressions, which are commonly
observed in opinionated content such as online reviews. In this work, we
introduce GEN-SCL-NAT, which consists of two techniques for improved structured
generation for ACOS quadruple extraction. First, we propose GEN-SCL, a
supervised contrastive learning objective that aids quadruple prediction by
encouraging the model to produce input representations that are discriminable
across key input attributes, such as sentiment polarity and the existence of
implicit opinions and aspects. Second, we introduce GEN-NAT, a new structured
generation format that better adapts autoregressive encoder-decoder models to
extract quadruples in a generative fashion. Experimental results show that
GEN-SCL-NAT achieves top performance across three ACOS datasets, averaging
1.48% F1 improvement, with a maximum 1.73% increase on the LAPTOP-L1 dataset.
Additionally, we see significant gains on implicit aspect and opinion splits
that have been shown as challenging for existing ACOS approaches.
- Abstract(参考訳): Aspect-based Sentiment Analysis(ABSA)タスク、特にAspect-Category-Opinion-Sentiment(ACOS)四重項抽出タスクにおいて、生成モデルが顕著な結果を示した。
しかし、これらのモデルは、オンラインレビューのような意見コンテンツで一般的に見られる暗黙的な感情表現に苦しむ。
本稿では、ACOS四重項抽出のための構造生成を改善する2つの技術からなるGEN-SCL-NATを紹介する。
まず、感傷極性や暗黙の意見や側面など、キー入力属性間で識別可能な入力表現をモデルに生成させることで、4倍の予測を支援する教師付きコントラスト学習目標であるgen-sclを提案する。
第二にGEN-NATは、自己回帰エンコーダデコーダモデルに適応し、生成方式で四重項を抽出する新しい構造生成フォーマットである。
実験結果から、GEN-SCL-NATは3つのACOSデータセットで最高パフォーマンスを達成し、平均1.48%のF1改善を実現し、LAPTOP-L1データセットでは最大1.73%増加した。
さらに、既存のACOSアプローチでは、暗黙的な側面や意見の分裂が困難であることが示されている。
関連論文リスト
- Self-Consistent Reasoning-based Aspect-Sentiment Quad Prediction with
Extract-Then-Assign Strategy [18.519480704213017]
自己整合性推論に基づくアスペクト知覚四重項予測(SCRAP)を提案する。
SCRAPはそのモデルを最適化し、推論とそれに対応する感情四重項を順番に生成する。
最終的に、SCRAPは、複雑な推論タスクを処理し、一貫性投票によって四重項を正確に予測するモデルの能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-01T08:34:02Z) - S^2Former-OR: Single-Stage Bimodal Transformer for Scene Graph
Generation in OR [52.964721233679406]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に、ポーズ推定とオブジェクト検出を伴う中間プロセスに依存するセマンティックシーングラフを生成する多段階学習に依存してきた。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGの単一段バイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - iACOS: Advancing Implicit Sentiment Extraction with Informative and
Adaptive Negative Examples [2.2120851074630177]
そこで本稿では,カテゴリとオピニオンをセンチメントで抽出する新しい手法iACOSを提案する。
iACOSはテキストの最後に2つの暗黙のトークンを付加し、暗黙のアスペクトや意見を含むすべてのトークンのコンテキスト認識表現をキャプチャする。
2つの公開ベンチマークデータセットのF1スコアにより,iACOSは,他の4倍の抽出基準値よりも有意に優れていた。
論文 参考訳(メタデータ) (2023-11-07T11:19:06Z) - CONTRASTE: Supervised Contrastive Pre-training With Aspect-based Prompts
For Aspect Sentiment Triplet Extraction [13.077459544929598]
本稿では,ConTRastive Learning を用いた新しい事前学習戦略を提案する。
また,ACOS,TASD,AESCなどの他のABSAタスクに対して提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-10-24T07:40:09Z) - Attribute Graph Clustering via Learnable Augmentation [71.36827095487294]
対照的なディープグラフクラスタリング(CDGC)は、異なるクラスタにノードをグループ化するために対照的な学習を利用する。
本稿では,高品質な増分サンプルのための学習可能な増分器を導入するための,Learningable Augmentation (textbfAGCLA) を用いた属性グラフクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - Delving into High-Quality Synthetic Face Occlusion Segmentation Datasets [83.749895930242]
そこで本研究では,高品質な自然主義的合成隠蔽顔を製造するための2つの手法を提案する。
両手法の有効性とロバスト性を実証的に示す。
我々は,RealOccとRealOcc-Wildという,微細なアノテーションを付加した高精細な実世界の顔データセットを2つ提示する。
論文 参考訳(メタデータ) (2022-05-12T17:03:57Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Non-Autoregressive Text Generation with Pre-trained Language Models [40.50508206201288]
BERTはNAGモデルのバックボーンとして利用でき、性能を大幅に向上できることを示す。
バニラNAGモデルの2つの共通問題を緩和するメカニズムを考案する。
本稿では,出力長を事前に推定できる新しいデコード戦略である ratio-first を提案する。
論文 参考訳(メタデータ) (2021-02-16T15:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。