論文の概要: Enhancing Granular Sentiment Classification with Chain-of-Thought Prompting in Large Language Models
- arxiv url: http://arxiv.org/abs/2505.04135v1
- Date: Wed, 07 May 2025 05:13:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.979584
- Title: Enhancing Granular Sentiment Classification with Chain-of-Thought Prompting in Large Language Models
- Title(参考訳): 大言語モデルにおけるチェーン・オブ・サート・プロンプティングによる粒度感性分類の強化
- Authors: Vihaan Miriyala, Smrithi Bukkapatnam, Lavanya Prahallad,
- Abstract要約: 我々は,大規模言語モデル (LLM) によるアプリストアレビューにおける微粒な感情分類の精度向上を目的として,Chain-of-Thought (CoT) の利用について検討した。
我々は,2000年のAmazonアプリレビューにおいて,CoTプロンプトと単純なプロンプトの有効性を,それぞれの手法の予測と人間の判断を比較して評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the use of Chain-of-Thought (CoT) prompting with large language models (LLMs) to improve the accuracy of granular sentiment categorization in app store reviews. Traditional numeric and polarity-based ratings often fail to capture the nuanced sentiment embedded in user feedback. We evaluated the effectiveness of CoT prompting versus simple prompting on 2000 Amazon app reviews by comparing each method's predictions to human judgements. CoT prompting improved classification accuracy from 84% to 93% highlighting the benefit of explicit reasoning in enhancing sentiment analysis performance.
- Abstract(参考訳): 我々は,大規模言語モデル (LLM) によるアプリストアレビューにおける微粒な感情分類の精度向上を目的として,Chain-of-Thought (CoT) の利用について検討した。
従来の数値と極性に基づく評価は、ユーザのフィードバックに埋め込まれた微妙な感情を捉えるのに失敗することが多い。
我々は,2000年のAmazonアプリレビューにおいて,CoTプロンプトと単純なプロンプトの有効性を,それぞれの手法の予測と人間の判断を比較して評価した。
CoTは分類精度を84%から93%に向上させ、感情分析性能を高めるための明確な推論の利点を強調した。
関連論文リスト
- CoKe: Customizable Fine-Grained Story Evaluation via Chain-of-Keyword Rationalization [90.15027447565427]
思考の連鎖(CoT)は、モデルの予測を導くのに役立つ自由テキストの説明を生成する。
自己一貫性(SC: Self-Consistency)は、複数の生成された説明に対する予測を疎外する。
我々は、$textbfC$hain-$textbfo$f-$textbfKe$ywords (CoKe)を提案する。
論文 参考訳(メタデータ) (2025-03-21T13:37:46Z) - Reasoning Beyond Bias: A Study on Counterfactual Prompting and Chain of Thought Reasoning [0.0]
回答の選択肢によって学習された規則性の違いは、モデルの好みを予測し、人間のテストテイク戦略を反映していることが示される。
我々は2つの新しい方法を紹介した: 思考の連鎖(CoT)と素素数CoT(Agnostically Primed CoT)による反実的プロンプト(APriCoT)である。
以上の結果から,予測バイアスの緩和には「システム-2」のようなプロセスが必要であることが示唆された。
論文 参考訳(メタデータ) (2024-08-16T10:34:50Z) - Gradient-Boosted Decision Tree for Listwise Context Model in Multimodal
Review Helpfulness Prediction [40.09991896766369]
マルチモーダルレビュー ヘルプフルネス予測は、予測された有用度スコアに基づいて製品レビューをランク付けすることを目的としている。
本稿ではMRHPランキングの文脈を明確に把握するリストワイズアテンションネットワークを提案する。
また,製品レビューの表現を効果的に分割するスコア予測木として,勾配ブースト決定木を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:31:00Z) - Self-Evaluation Guided Beam Search for Reasoning [61.523627290397556]
我々は,Large Language Model (LLM) の推論プロセスのガイドと校正を行うための段階的自己評価機構を導入する。
本稿では,ビームサーチによる自己評価ガイダンスを統合した復号アルゴリズムを提案する。
我々のアプローチは、GSM8K、AQuA、StrategyQAにおいて、対応するCodexバックボンドベースラインをわずかに精度6.34%、9.56%、および5.46%で上回る。
論文 参考訳(メタデータ) (2023-05-01T02:37:59Z) - Language Model Classifier Aligns Better with Physician Word Sensitivity
than XGBoost on Readmission Prediction [86.15787587540132]
語彙レベルでモデルの振る舞いを精査する尺度である感度スコアを導入する。
本実験は,感度スコアのランク相関に基づいて,臨床医と分類医の意思決定論理を比較した。
論文 参考訳(メタデータ) (2022-11-13T23:59:11Z) - Rethinking and Refining the Distinct Metric [61.213465863627476]
我々は、その期待に基づいて異なるトークンの数を再スケーリングすることで、異なるスコアの計算を洗練する。
実験的および理論的証拠の両面から,本手法が元の異なるスコアで示されるバイアスを効果的に除去することを示す。
論文 参考訳(メタデータ) (2022-02-28T07:36:30Z) - A Unified Dual-view Model for Review Summarization and Sentiment
Classification with Inconsistency Loss [51.448615489097236]
ユーザーレビューから正確な要約と感情を取得することは、現代のEコマースプラットフォームにとって不可欠な要素である。
本稿では,これら2つのタスクの性能を協調的に改善する新しいデュアルビューモデルを提案する。
異なる領域の4つの実世界のデータセットに対する実験結果から,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-06-02T13:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。