論文の概要: Reference Points in LLM Sentiment Analysis: The Role of Structured Context
- arxiv url: http://arxiv.org/abs/2508.11454v1
- Date: Fri, 15 Aug 2025 13:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.961602
- Title: Reference Points in LLM Sentiment Analysis: The Role of Structured Context
- Title(参考訳): LLM感性分析における基準点:構造化文脈の役割
- Authors: Junichiro Niimi,
- Abstract要約: 本研究では, 補足情報が大規模言語モデル(LLM)を用いた感情分析に与える影響について検討する。
構造化プロンプトにより、より小さなモデルで競争性能を達成できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are now widely used across many fields, including marketing research. Sentiment analysis, in particular, helps firms understand consumer preferences. While most NLP studies classify sentiment from review text alone, marketing theories, such as prospect theory and expectation--disconfirmation theory, point out that customer evaluations are shaped not only by the actual experience but also by additional reference points. This study therefore investigates how the content and format of such supplementary information affect sentiment analysis using LLMs. We compare natural language (NL) and JSON-formatted prompts using a lightweight 3B parameter model suitable for practical marketing applications. Experiments on two Yelp categories (Restaurant and Nightlife) show that the JSON prompt with additional information outperforms all baselines without fine-tuning: Macro-F1 rises by 1.6% and 4% while RMSE falls by 16% and 9.1%, respectively, making it deployable in resource-constrained edge devices. Furthermore, a follow-up analysis confirms that performance gains stem from genuine contextual reasoning rather than label proxying. This work demonstrates that structured prompting can enable smaller models to achieve competitive performance, offering a practical alternative to large-scale model deployment.
- Abstract(参考訳): 大規模言語モデル(LLM)は現在、マーケティング研究を含む多くの分野で広く使われている。
特にセンチメント分析は、企業が消費者の好みを理解するのに役立つ。
ほとんどのNLP研究は、レビューテキストのみから感情を分類するが、予測理論や期待-確認理論といったマーケティング理論は、顧客評価は実際の経験だけでなく、追加の基準ポイントによっても形成されていることを指摘している。
そこで本研究では,このような補足情報の内容と形式が,LLMを用いた感情分析に与える影響について検討した。
実用的なマーケティングアプリケーションに適した軽量な3Bパラメータモデルを用いて自然言語(NL)とJSON形式のプロンプトを比較した。
Yelpの2つのカテゴリ(RestaurantとNightlife)の実験では、追加情報によるJSONプロンプトが微調整なしですべてのベースラインを上回ることが示されている。
さらに、フォローアップ分析により、ラベルのプロキシではなく、実際のコンテキスト推論によるパフォーマンス向上が証明される。
この研究は、構造化プロンプトにより、より小さなモデルで競争力のあるパフォーマンスを実現し、大規模モデルデプロイメントの実用的な代替手段を提供することを実証している。
関連論文リスト
- Verifying the Verifiers: Unveiling Pitfalls and Potentials in Fact Verifiers [59.168391398830515]
我々は,14のファクトチェックベンチマークのサンプルを用いて,12の事前学習LDMと1つの特殊ファクト検証器を評価した。
データセットにおけるアノテーションエラーとあいまいさに対処することの重要性を強調します。
最上位のパフォーマンスを実現するために、前作でしばしば見落とされがちな、数ショットのインコンテキストの例を持つフロンティアLSM。
論文 参考訳(メタデータ) (2025-06-16T10:32:10Z) - Potential and Perils of Large Language Models as Judges of Unstructured Textual Data [0.631976908971572]
本研究では,LLM-as-judgeモデルの有効性を検討した。
LLM-as-judgeは、人間に匹敵するスケーラブルなソリューションを提供するが、人間は微妙で文脈固有のニュアンスを検出するのに優れている。
論文 参考訳(メタデータ) (2025-01-14T14:49:14Z) - Dynamic Sentiment Analysis with Local Large Language Models using Majority Voting: A Study on Factors Affecting Restaurant Evaluation [0.0]
本研究では,局所言語モデルを用いた感情分析モデルに多数決機構を導入する。
レストラン評価に関するオンラインレビューの3つの分析により、複数の試みによる過半数投票は、一つの試みによる大規模なモデルよりも、より堅牢な結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-07-18T00:28:04Z) - Automating Customer Needs Analysis: A Comparative Study of Large Language Models in the Travel Industry [2.4244694855867275]
大規模言語モデル(LLM)は、大量のテキストデータから貴重な洞察を抽出する強力なツールとして登場した。
本研究では,TripAdvisor と Reddit の投稿から旅行客のニーズを抽出するための LLM の比較分析を行った。
特にMistral 7Bは,大規模クローズドモデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-04-27T18:28:10Z) - A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。