論文の概要: Open Aspect Target Sentiment Classification with Natural Language
Prompts
- arxiv url: http://arxiv.org/abs/2109.03685v1
- Date: Wed, 8 Sep 2021 14:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 14:00:02.292193
- Title: Open Aspect Target Sentiment Classification with Natural Language
Prompts
- Title(参考訳): 自然言語プロンプトを用いたオープンアスペクトターゲット感情分類
- Authors: Ronald Seoh, Ian Birle, Mrinal Tak, Haw-Shiuan Chang, Brian Pinette,
Alfred Hough
- Abstract要約: 自然言語のプロンプトでATSCを解くための簡単な手法を提案する。
SemEval 2014 Task 4ラップトップドメインのいくつかの設定では、NLIタスクとしてATSCを再構成する方法は、最大24.13の精度ポイントと33.14のマクロF1ポイントで教師付きSOTAアプローチより優れている。
- 参考スコア(独自算出の注目度): 1.9491825010518626
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: For many business applications, we often seek to analyze sentiments
associated with any arbitrary aspects of commercial products, despite having a
very limited amount of labels or even without any labels at all. However,
existing aspect target sentiment classification (ATSC) models are not trainable
if annotated datasets are not available. Even with labeled data, they fall
short of reaching satisfactory performance. To address this, we propose simple
approaches that better solve ATSC with natural language prompts, enabling the
task under zero-shot cases and enhancing supervised settings, especially for
few-shot cases. Under the few-shot setting for SemEval 2014 Task 4 laptop
domain, our method of reformulating ATSC as an NLI task outperforms supervised
SOTA approaches by up to 24.13 accuracy points and 33.14 macro F1 points.
Moreover, we demonstrate that our prompts could handle implicitly stated
aspects as well: our models reach about 77% accuracy on detecting sentiments
for aspect categories (e.g., food), which do not necessarily appear within the
text, even though we trained the models only with explicitly mentioned aspect
terms (e.g., fajitas) from just 16 reviews - while the accuracy of the
no-prompt baseline is only around 65%.
- Abstract(参考訳): 多くのビジネスアプリケーションでは、非常に限定的なラベルや全くラベルがないにもかかわらず、私たちはしばしば商用製品の任意の側面に関連する感情を分析することを求めます。
しかし、アノテーション付きデータセットが利用できない場合、既存のアスペクトターゲット感情分類(ATSC)モデルはトレーニングできない。
ラベル付きデータでさえ、満足のいくパフォーマンスには達していない。
そこで本研究では,自然言語プロンプトによるatscの解法を改良し,ゼロショットケースのタスクを可能にし,特に少数ショットケースにおいて教師付き設定の強化を図る。
SemEval 2014 Task 4ラップトップドメインのいくつかの設定では、NLIタスクとしてATSCを再構成する方法は、最大24.13の精度ポイントと33.14のマクロF1ポイントで教師付きSOTAアプローチより優れている。
さらに、我々のプロンプトは暗黙的に述べられた側面も扱えることを実証する:我々のモデルはアスペクトカテゴリ(例えば食品)の感情を検出する上で約77%の精度に達し、これは必ずしもテキスト内に現れるわけではない。
関連論文リスト
- Do we still need Human Annotators? Prompting Large Language Models for Aspect Sentiment Quad Prediction [2.2999148299770047]
本稿では,ASQPタスクにおけるゼロおよび少数ショット学習のための大規模言語モデルの能力について検討する。
F1スコアは最先端の微調整モデルよりわずかに低いが,従来報告されていたゼロショットと少数ショットのパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2025-02-18T16:56:15Z) - Large language models for aspect-based sentiment analysis [0.0]
GPT-4 と GPT-3.5 の性能をゼロショット, 少ないショット, 微調整で評価した。
微調整 GPT-3.5 は、共同アスペクト項抽出と極性分類タスクにおいて最先端の F1 スコア 83.8 を達成する。
論文 参考訳(メタデータ) (2023-10-27T10:03:21Z) - Exploring Small Language Models with Prompt-Learning Paradigm for
Efficient Domain-Specific Text Classification [2.410463233396231]
小型言語モデル(SLM)は、ドメイン固有のタスクに対して、大幅なカスタマイズ性、適応性、コスト効率を提供する。
プロンプトベースのモデル微調整が可能となる場合、T5ベースは220Mパラメータを持つ典型的なSLMであり、ラベル付きデータで約75%の精度が得られる。
固定モデルを用いたゼロショット設定では、約154Bのパラメータを備えたGPT-3.5-turboが55.16%の精度を持つにもかかわらず、よく設計されたプロンプトのパワーが明らかになるという重要な観察結果が得られた。
論文 参考訳(メタデータ) (2023-09-26T09:24:46Z) - SLPT: Selective Labeling Meets Prompt Tuning on Label-Limited Lesion
Segmentation [57.37875162629063]
本稿では,限定ラベルの性能向上のために,選択的ラベリングと即時チューニングを組み合わせたフレームワークを提案する。
肝腫瘍の分節化について検討し, 従来の微調整を6%程度で達成した。
論文 参考訳(メタデータ) (2023-08-09T12:22:49Z) - Label-Aware Hyperbolic Embeddings for Fine-grained Emotion
Classification [11.973115466838717]
きめ細かい感情分類(FEC)は難しい課題である。
FECはラベル間の微妙なニュアンスを扱う必要がある。
既存のモデルの多くはユークリッド空間におけるテキスト分類の問題にのみ対応している。
ハイプエモ(HypEmo)は, ハイプエモ(HypEmo)という, ハイプエモ(HypEmo)という, ハイプエモ(HypEmo)という, ハイプエモ(HypEmo)という, ハイプエモ(HypEmo
論文 参考訳(メタデータ) (2023-06-26T16:28:33Z) - LaFTer: Label-Free Tuning of Zero-shot Classifier using Language and
Unlabeled Image Collections [30.875186985461063]
大規模事前訓練型ビジョン・アンド・ランゲージ(VL)モデルでは、ゼロショット視覚分類において新しい最先端(SOTA)が設定されている。
初めて、ラベルなしで、ペア化されたVLデータなしで、このギャップを減らせる方法を示します。
論文 参考訳(メタデータ) (2023-05-29T17:56:35Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Self-Adaptive Label Augmentation for Semi-supervised Few-shot
Classification [121.63992191386502]
Few-shotの分類は、ラベル付きサンプルがわずかにあれば、新しいタスクをうまく一般化できるモデルを学ぶことを目的としている。
そこで本研究では,手動で定義した指標を用いて,ラベルのない各サンプルに適切なラベルを割り当てる半教師付き小ショット分類手法を提案する。
SALAの目新しいところは、タスク適応計量であり、エンドツーエンドの方法で異なるタスクに対するメトリックを適応的に学習することができる。
論文 参考訳(メタデータ) (2022-06-16T13:14:03Z) - Few-shot Instruction Prompts for Pretrained Language Models to Detect
Social Biases [55.45617404586874]
我々は、事前訓練された言語モデル(LM)を誘導する数ショットの命令ベース手法を提案する。
大規模なLMは、微調整モデルとよく似た精度で、異なる種類の細粒度バイアスを検出できることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:19:52Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Tasty Burgers, Soggy Fries: Probing Aspect Robustness in Aspect-Based
Sentiment Analysis [71.40390724765903]
アスペクトベースの感情分析(ABSA)は、テキストの特定の側面に対する感情を予測することを目的としている。
既存のABSAテストセットは、モデルが対象のアスペクトの感情を非ターゲットのアスペクトと区別できるかどうかを調査するために使用できない。
我々は、対象の側面の感情から、対象でない側面の相反する感情を解き放つための新しい例を生成する。
論文 参考訳(メタデータ) (2020-09-16T22:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。