論文の概要: CONTRASTE: Supervised Contrastive Pre-training With Aspect-based Prompts
For Aspect Sentiment Triplet Extraction
- arxiv url: http://arxiv.org/abs/2310.15577v1
- Date: Tue, 24 Oct 2023 07:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 20:11:41.070640
- Title: CONTRASTE: Supervised Contrastive Pre-training With Aspect-based Prompts
For Aspect Sentiment Triplet Extraction
- Title(参考訳): CONTRASTE:Aspect-based Promptsを用いた教師付きコントラスト事前訓練
- Authors: Rajdeep Mukherjee, Nithish Kannen, Saurabh Kumar Pandey, Pawan Goyal
- Abstract要約: 本稿では,ConTRastive Learning を用いた新しい事前学習戦略を提案する。
また,ACOS,TASD,AESCなどの他のABSAタスクに対して提案手法の利点を示す。
- 参考スコア(独自算出の注目度): 13.077459544929598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing works on Aspect Sentiment Triplet Extraction (ASTE) explicitly focus
on developing more efficient fine-tuning techniques for the task. Instead, our
motivation is to come up with a generic approach that can improve the
downstream performances of multiple ABSA tasks simultaneously. Towards this, we
present CONTRASTE, a novel pre-training strategy using CONTRastive learning to
enhance the ASTE performance. While we primarily focus on ASTE, we also
demonstrate the advantage of our proposed technique on other ABSA tasks such as
ACOS, TASD, and AESC. Given a sentence and its associated (aspect, opinion,
sentiment) triplets, first, we design aspect-based prompts with corresponding
sentiments masked. We then (pre)train an encoder-decoder model by applying
contrastive learning on the decoder-generated aspect-aware sentiment
representations of the masked terms. For fine-tuning the model weights thus
obtained, we then propose a novel multi-task approach where the base
encoder-decoder model is combined with two complementary modules, a
tagging-based Opinion Term Detector, and a regression-based Triplet Count
Estimator. Exhaustive experiments on four benchmark datasets and a detailed
ablation study establish the importance of each of our proposed components as
we achieve new state-of-the-art ASTE results.
- Abstract(参考訳): Aspect Sentiment Triplet extract (ASTE)に関する既存の研究は、タスクのためのより効率的な微調整技術の開発に重点を置いている。
私たちのモチベーションは、複数のABSAタスクの下流のパフォーマンスを同時に改善できる汎用的なアプローチを考え出すことです。
そこで本研究では,ConTRastive Learningを用いた新しい事前学習戦略であるConTRASTEを提案する。
我々は主にASTEに焦点を当てているが、ACOS、TASD、AESCといった他のABSAタスクに対して提案手法の利点を示す。
文とその関連する(アスペクト、意見、感情)三つ子を与えられたら、まず、対応する感情を隠蔽したアスペクトベースのプロンプトを設計する。
次に,デコーダの生成したアスペクト認識感情表現に対して,コントラスト学習を適用して,エンコーダ-デコーダモデルを訓練する。
そこで, モデル重みを微調整するために, ベースエンコーダ・デコーダモデルとタグ付きオピニオン項検出器, 回帰型トリプレット数推定器の2つの補完モジュールを組み合わせた, 新たなマルチタスク手法を提案する。
4つのベンチマークデータセットの徹底的な実験と詳細なアブレーション実験により,提案する各コンポーネントの重要性が証明された。
関連論文リスト
- Deep Content Understanding Toward Entity and Aspect Target Sentiment Analysis on Foundation Models [0.8602553195689513]
Entity-Aspect Sentiment Triplet extract (EASTE)は、Aspect-Based Sentiment Analysisタスクである。
本研究は,EASTEタスクにおける高性能化を目標とし,モデルサイズ,タイプ,適応技術がタスクパフォーマンスに与える影響について検討する。
最終的には、複雑な感情分析における詳細な洞察と最先端の成果を提供する。
論文 参考訳(メタデータ) (2024-07-04T16:48:14Z) - MiniConGTS: A Near Ultimate Minimalist Contrastive Grid Tagging Scheme for Aspect Sentiment Triplet Extraction [7.785948823258398]
本稿では,最小限のタグ付け方式と新しいトークンレベルのコントラスト学習戦略を統合することにより,事前訓練された表現を改善し,活用する手法を提案する。
提案手法は,最先端技術と比較して同等あるいは優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-17T06:01:11Z) - Rethinking ASTE: A Minimalist Tagging Scheme Alongside Contrastive Learning [7.785948823258398]
Aspect Sentiment Triplet extract (ASTE) は、きめ細かい感情分析のサブタスクである。
ASTEへの既存のアプローチは、しばしばタスクを追加構造や外部データで複雑化する。
本稿では,新しいタグ付け手法を提案し,これらの課題を緩和するために対照的な学習手法を用いる。
論文 参考訳(メタデータ) (2024-03-12T06:01:04Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - A Weak Supervision Approach for Few-Shot Aspect Based Sentiment [39.33888584498155]
豊富なラベルのないデータに対する弱みの監視は、感情分析タスクにおける数ショットのパフォーマンスを改善するために利用することができる。
ノイズの多いABSAデータセットを構築するパイプライン手法を提案し,それを用いて事前学習されたシーケンス・ツー・シーケンスモデルをABSAタスクに適用する。
提案手法は, 数ショット学習シナリオにおいて, 大幅な改良(15.84%) を示しながら, 完全な微調整性能を保っている。
論文 参考訳(メタデータ) (2023-05-19T19:53:54Z) - Unifying Flow, Stereo and Depth Estimation [121.54066319299261]
本稿では3つの動作と3次元知覚タスクのための統一的な定式化とモデルを提案する。
これら3つのタスクを、統一された高密度対応マッチング問題として定式化する。
我々のモデルは、モデルアーキテクチャとパラメータがタスク間で共有されているため、自然にクロスタスク転送を可能にします。
論文 参考訳(メタデータ) (2022-11-10T18:59:54Z) - ContrastVAE: Contrastive Variational AutoEncoder for Sequential
Recommendation [58.02630582309427]
本稿では,コントラスト学習を変分オートエンコーダの枠組みに組み込むことを提案する。
ContrastELBOは,従来のシングルビューELBOを2ビューケースに拡張した,新しいトレーニング目標である。
また、コントラストELBOの具体化として、コントラスト正規化を備えた2分岐VAEモデルであるContrastVAEを提案する。
論文 参考訳(メタデータ) (2022-08-27T03:35:00Z) - Seeking Common but Distinguishing Difference, A Joint Aspect-based
Sentiment Analysis Model [43.4726612032584]
本稿では,エンコーダ共有の利点を享受するだけでなく,モデルの有効性向上にも焦点をあてる共同ABSAモデルを提案する。
具体的には、ペアエンコーダが特に候補アスペクト-オピニオン対の分類に重点を置いており、元のエンコーダはシーケンスラベリングに注意を払っている。
実験結果から,提案モデルが頑健性を示し,従来の4つのベンチマークデータセットよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-11-18T11:24:48Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z) - An Iterative Multi-Knowledge Transfer Network for Aspect-Based Sentiment
Analysis [73.7488524683061]
本稿では,エンド・ツー・エンドABSAのための新しいIterative Multi-Knowledge Transfer Network (IMKTN)を提案する。
我々のIMKTNは、よく設計されたルーティングアルゴリズムを用いて、3つのサブタスクのうち2つのタスク固有の知識をトークンレベルで別のタスクに転送する。
3つのベンチマークデータセットの実験結果は、我々のアプローチの有効性と優位性を示している。
論文 参考訳(メタデータ) (2020-04-04T13:49:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。