論文の概要: Enhance Multi-domain Sentiment Analysis of Review Texts through
Prompting Strategies
- arxiv url: http://arxiv.org/abs/2309.02045v2
- Date: Sun, 7 Jan 2024 14:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 22:58:16.366623
- Title: Enhance Multi-domain Sentiment Analysis of Review Texts through
Prompting Strategies
- Title(参考訳): プロンプティング戦略によるレビューテキストのマルチドメイン感性分析
- Authors: Yajing Wang and Zongwei Luo
- Abstract要約: 感情分析タスクの推進過程を定式化し、感情分析に適した2つの新しい戦略を導入する。
提案した感情分析手法の有効性を評価するために,3つの異なる領域データセットの比較実験を行った。
その結果,提案手法の採用により,感情分析の精度が向上することが示唆された。
- 参考スコア(独自算出の注目度): 1.335032286337391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have made significant strides in both scientific
research and practical applications. Existing studies have demonstrated the
state-of-the-art (SOTA) performance of LLMs in various natural language
processing tasks. However, the question of how to further enhance LLMs'
performance in specific task using prompting strategies remains a pivotal
concern. This paper explores the enhancement of LLMs' performance in sentiment
analysis through the application of prompting strategies. We formulate the
process of prompting for sentiment analysis tasks and introduce two novel
strategies tailored for sentiment analysis: RolePlaying (RP) prompting and
Chain-of-thought (CoT) prompting. Specifically, we also propose the RP-CoT
prompting strategy which is a combination of RP prompting and CoT prompting. We
conduct comparative experiments on three distinct domain datasets to evaluate
the effectiveness of the proposed sentiment analysis strategies. The results
demonstrate that the adoption of the proposed prompting strategies leads to a
increasing enhancement in sentiment analysis accuracy. Further, the CoT
prompting strategy exhibits a notable impact on implicit sentiment analysis,
with the RP-CoT prompting strategy delivering the most superior performance
among all strategies.
- Abstract(参考訳): 大規模言語モデル(LLM)は科学的研究と実践的応用の両方において大きな進歩を遂げてきた。
既存の研究では、自然言語処理タスクにおけるLLMの最先端(SOTA)性能が実証されている。
しかし、特定のタスクにおいて、プロンプト戦略を用いてLLMの性能をさらに向上させるかという問題は、依然として重要な懸念事項である。
本稿では,感情分析におけるLCMの性能向上について,プロンプト戦略の適用を通して検討する。
本研究では,感情分析タスクの促進過程を定式化し,感情分析に適した2つの新しい戦略,RolePlaying(RP)プロンプトとChain-of-Thought(CoT)プロンプトを導入する。
具体的には,RPプロンプトとCoTプロンプトを組み合わせたRP-CoTプロンプト戦略を提案する。
提案する感情分析手法の有効性を評価するために,3つの異なるドメインデータセットの比較実験を行った。
その結果,提案手法の採用により,感情分析の精度が向上することが示唆された。
さらに、CoTプロンプト戦略は暗黙の感情分析に顕著な影響を与え、RP-CoTプロンプト戦略はすべての戦略の中で最も優れたパフォーマンスを提供する。
関連論文リスト
- Deciphering Political Entity Sentiment in News with Large Language Models: Zero-Shot and Few-Shot Strategies [0.5459032912385802]
政治ニュース記事からエンティティ固有の感情を予測する上で,Large Language Models (LLMs) の有効性を検討する。
我々は、文脈内学習において、合理的に強化されたチェーン・オブ・シント(COT)アプローチを採用する。
文脈内での学習はモデル性能を著しく向上させる一方、自己整合性メカニズムは感情予測の一貫性を高める。
論文 参考訳(メタデータ) (2024-04-05T19:14:38Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - K-Level Reasoning with Large Language Models [80.13817747270029]
急速に発展する環境における意思決定のための大規模言語モデル(LLM)の動的推論機能について検討する。
実世界の動的意思決定の複雑さを反映した2つのゲーム理論に基づくパイロットチャレンジを導入する。
これらの課題は明確に定義されており、LLMの動的推論能力の明確で制御可能で正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - Which is better? Exploring Prompting Strategy For LLM-based Metrics [6.681126871165601]
本稿では,DSBA が提案する Prompting Large Language Models を Explainable Metrics 共有タスクとして記述する。
BLEUやROUGEのような従来の類似性に基づくメトリクスは、人間の評価に悪影響を与えており、オープンな生成タスクには適していない。
論文 参考訳(メタデータ) (2023-11-07T06:36:39Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Towards Better Chain-of-Thought Prompting Strategies: A Survey [60.75420407216108]
CoT(Chain-of-Thought)は,大規模言語モデル(LLM)の促進戦略として使用すると,その印象的な強度を示す。
近年,CoTの促進効果が注目されている。
この調査は、関連する研究全般の参考になるかもしれない。
論文 参考訳(メタデータ) (2023-10-08T01:16:55Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Analyzing Different Expert-Opined Strategies to Enhance the Effect on
the Goal of a Multi-Attribute Decision-Making System Using a Concept of
Effort Propagation and Application in Enhancement of High School Students'
Performance [0.0]
本稿では,並列化と階層化という2つの戦略と,伝搬戦略を提案する。
本研究は,高校生のパフォーマンス向上に重要な役割を担っている,インドの高校の経営要因に関する実生活事例研究について分析した。
論文 参考訳(メタデータ) (2023-07-05T12:53:40Z) - Enhancing Few-shot Text-to-SQL Capabilities of Large Language Models: A
Study on Prompt Design Strategies [20.15851744895469]
In-context Learning (ICL) は、様々な自然言語処理タスクに対する新しいアプローチとして登場した。
本稿では,構造化知識源を利用した解答課題を問うために,この手法を拡張することを目的とする。
論文 参考訳(メタデータ) (2023-05-21T22:44:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。