論文の概要: MiniConGTS: A Near Ultimate Minimalist Contrastive Grid Tagging Scheme for Aspect Sentiment Triplet Extraction
- arxiv url: http://arxiv.org/abs/2406.11234v2
- Date: Mon, 30 Sep 2024 18:36:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-02 16:33:46.112152
- Title: MiniConGTS: A Near Ultimate Minimalist Contrastive Grid Tagging Scheme for Aspect Sentiment Triplet Extraction
- Title(参考訳): MiniConGTS: Aspect Sentiment Triplet 抽出のためのニアアルティマリストコントラストグリッドタグ方式
- Authors: Qiao Sun, Liujia Yang, Minghao Ma, Nanyang Ye, Qinying Gu,
- Abstract要約: 本稿では,最小限のタグ付け方式と新しいトークンレベルのコントラスト学習戦略を統合することにより,事前訓練された表現を改善し,活用する手法を提案する。
提案手法は,最先端技術と比較して同等あるいは優れた性能を示す。
- 参考スコア(独自算出の注目度): 7.785948823258398
- License:
- Abstract: Aspect Sentiment Triplet Extraction (ASTE) aims to co-extract the sentiment triplets in a given corpus. Existing approaches within the pretraining-finetuning paradigm tend to either meticulously craft complex tagging schemes and classification heads, or incorporate external semantic augmentation to enhance performance. In this study, we, for the first time, re-evaluate the redundancy in tagging schemes and the internal enhancement in pretrained representations. We propose a method to improve and utilize pretrained representations by integrating a minimalist tagging scheme and a novel token-level contrastive learning strategy. The proposed approach demonstrates comparable or superior performance compared to state-of-the-art techniques while featuring a more compact design and reduced computational overhead. Additionally, we are the first to formally evaluate GPT-4's performance in few-shot learning and Chain-of-Thought scenarios for this task. The results demonstrate that the pretraining-finetuning paradigm remains highly effective even in the era of large language models.
- Abstract(参考訳): Aspect Sentiment Triplet extract (ASTE)は、与えられたコーパス内の感情三つ子を共同抽出することを目的としている。
事前学習-ファインタニングパラダイム内の既存のアプローチは、複雑なタグ付けスキームと分類ヘッドを巧みに作成するか、あるいはパフォーマンスを高めるために外部意味拡張を組み込む傾向にある。
本研究では,タグ付け方式における冗長性を再評価し,事前訓練された表現における内部強化について検討する。
本稿では,最小限のタグ付け方式と新しいトークンレベルのコントラスト学習戦略を統合することにより,事前訓練された表現を改善し,活用する手法を提案する。
提案手法は、よりコンパクトな設計と計算オーバーヘッドの低減を特徴とし、最先端技術と比較して同等または優れた性能を示す。
さらに,GPT-4の性能を,この課題に対する数発の学習とチェーン・オブ・ソート・シナリオで公式に評価した最初の人物である。
その結果,大規模言語モデルにおいても,事前学習ファインタニングのパラダイムは依然として有効であることが示唆された。
関連論文リスト
- Rethinking ASTE: A Minimalist Tagging Scheme Alongside Contrastive Learning [7.785948823258398]
Aspect Sentiment Triplet extract (ASTE) は、きめ細かい感情分析のサブタスクである。
ASTEへの既存のアプローチは、しばしばタスクを追加構造や外部データで複雑化する。
本稿では,新しいタグ付け手法を提案し,これらの課題を緩和するために対照的な学習手法を用いる。
論文 参考訳(メタデータ) (2024-03-12T06:01:04Z) - CONTRASTE: Supervised Contrastive Pre-training With Aspect-based Prompts
For Aspect Sentiment Triplet Extraction [13.077459544929598]
本稿では,ConTRastive Learning を用いた新しい事前学習戦略を提案する。
また,ACOS,TASD,AESCなどの他のABSAタスクに対して提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-10-24T07:40:09Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Hierarchical Consistent Contrastive Learning for Skeleton-Based Action
Recognition with Growing Augmentations [33.68311764817763]
骨格に基づく行動認識のための一般的な階層的一貫したコントラスト学習フレームワーク(HiCLR)を提案する。
具体的には、まず段階的に増大する拡張ポリシーを設計し、複数の順序の正のペアを生成する。
そこで,方向クラスタリング操作による階層的整合性を実現するために,非対称な損失を提案する。
論文 参考訳(メタデータ) (2022-11-24T08:09:50Z) - Repurposing Knowledge Graph Embeddings for Triple Representation via
Weak Supervision [77.34726150561087]
現在の方法では、事前訓練されたモデルからの実体と述語埋め込みを使わずに、スクラッチから三重埋め込みを学習する。
本研究では,知識グラフからトリプルを自動抽出し,事前学習した埋め込みモデルからそれらのペアの類似性を推定する手法を開発した。
これらのペアの類似度スコアは、細い三重表現のためにシームズ様のニューラルネットワークに供給される。
論文 参考訳(メタデータ) (2022-08-22T14:07:08Z) - Incremental Prototype Prompt-tuning with Pre-trained Representation for
Class Incremental Learning [4.717066668969749]
クラスインクリメンタルな学習は多くの注目を集めていますが、既存のほとんどの研究は、表現モデルを継続的に微調整しています。
我々は、事前学習パラダイムを用いて、固定されたセマンティックリッチな事前学習表現モデルに基づいて、新しい視覚概念を逐次学習する。
我々の手法は、多くのマージンを持つ他の最先端手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-04-07T12:49:14Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning [57.4036085386653]
文ペア分類タスクのプロンプトベースモデルでは,語彙重なりに基づく推論の一般的な落とし穴が依然として残っていることを示す。
そこで,プレトレーニングウェイトを保存する正規化を加えることは,この破壊的な微調整の傾向を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-09T10:10:29Z) - Self-Promoted Prototype Refinement for Few-Shot Class-Incremental
Learning [81.10531943939365]
クラスインクリメンタルな学習は、サンプルが少ないと新しいクラスを認識し、古いクラスを忘れないことである。
本稿では,様々なエピソードに特徴表現を適応させる新しいインクリメンタルなプロトタイプ学習手法を提案する。
3つのベンチマークデータセットの実験では、上記の段階的なパフォーマンスを示し、それぞれ13%、17%、11%のマージンで最先端のメソッドを上回っている。
論文 参考訳(メタデータ) (2021-07-19T14:31:33Z) - Initialization and Regularization of Factorized Neural Layers [23.875225732697142]
ディープネットにおける因子化層の初期化と規則化の方法を示す。
これらのスキームが翻訳と教師なしプリトレーニングの両方のパフォーマンスを向上させる方法を示しています。
論文 参考訳(メタデータ) (2021-05-03T17:28:07Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。