論文の概要: Reference Points in LLM Sentiment Analysis: The Role of Structured Context
- arxiv url: http://arxiv.org/abs/2508.11454v1
- Date: Fri, 15 Aug 2025 13:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.961602
- Title: Reference Points in LLM Sentiment Analysis: The Role of Structured Context
- Title(参考訳): LLM感性分析における基準点:構造化文脈の役割
- Authors: Junichiro Niimi,
- Abstract要約: 本研究では, 補足情報が大規模言語モデル(LLM)を用いた感情分析に与える影響について検討する。
構造化プロンプトにより、より小さなモデルで競争性能を達成できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are now widely used across many fields, including marketing research. Sentiment analysis, in particular, helps firms understand consumer preferences. While most NLP studies classify sentiment from review text alone, marketing theories, such as prospect theory and expectation--disconfirmation theory, point out that customer evaluations are shaped not only by the actual experience but also by additional reference points. This study therefore investigates how the content and format of such supplementary information affect sentiment analysis using LLMs. We compare natural language (NL) and JSON-formatted prompts using a lightweight 3B parameter model suitable for practical marketing applications. Experiments on two Yelp categories (Restaurant and Nightlife) show that the JSON prompt with additional information outperforms all baselines without fine-tuning: Macro-F1 rises by 1.6% and 4% while RMSE falls by 16% and 9.1%, respectively, making it deployable in resource-constrained edge devices. Furthermore, a follow-up analysis confirms that performance gains stem from genuine contextual reasoning rather than label proxying. This work demonstrates that structured prompting can enable smaller models to achieve competitive performance, offering a practical alternative to large-scale model deployment.
- Abstract(参考訳): 大規模言語モデル(LLM)は現在、マーケティング研究を含む多くの分野で広く使われている。
特にセンチメント分析は、企業が消費者の好みを理解するのに役立つ。
ほとんどのNLP研究は、レビューテキストのみから感情を分類するが、予測理論や期待-確認理論といったマーケティング理論は、顧客評価は実際の経験だけでなく、追加の基準ポイントによっても形成されていることを指摘している。
そこで本研究では,このような補足情報の内容と形式が,LLMを用いた感情分析に与える影響について検討した。
実用的なマーケティングアプリケーションに適した軽量な3Bパラメータモデルを用いて自然言語(NL)とJSON形式のプロンプトを比較した。
Yelpの2つのカテゴリ(RestaurantとNightlife)の実験では、追加情報によるJSONプロンプトが微調整なしですべてのベースラインを上回ることが示されている。
さらに、フォローアップ分析により、ラベルのプロキシではなく、実際のコンテキスト推論によるパフォーマンス向上が証明される。
この研究は、構造化プロンプトにより、より小さなモデルで競争力のあるパフォーマンスを実現し、大規模モデルデプロイメントの実用的な代替手段を提供することを実証している。
関連論文リスト
- Beyond the Star Rating: A Scalable Framework for Aspect-Based Sentiment Analysis Using LLMs and Text Classification [4.381175060941676]
大規模言語モデル(LLM)は自然言語理解を約束するが、大規模レビュー分析への応用は計算コストやスケーラビリティの懸念によって制限されている。
本研究では,LLMをアスペクト識別に利用し,古典的な機械学習手法を大規模感情分類に適用したハイブリッド手法を提案する。
この結果から,LLMと従来の機械学習アプローチを組み合わせることで,大規模顧客フィードバックのアスペクトベース感情分析を効果的に自動化できることが示唆された。
論文 参考訳(メタデータ) (2026-02-24T16:45:17Z) - LLM Based Sentiment Classification From Bangladesh E-Commerce Reviews [0.0]
本稿では,バングラデシュのeコマースレビューの感情分析にトランスフォーマーを用いたBERTモデルの有効性について検討する。
バングラのオリジナルデータセットから4000サンプルのサブセットと、イングランドの顧客レビューを使用してモデルを微調整した。
微調整のLlama-3.1-8Bモデルは、全体的な精度、精度、リコール、F1スコア95.5%、93%、88%、90%で他の微調整モデルより優れていた。
論文 参考訳(メタデータ) (2025-09-30T16:46:09Z) - Verifying the Verifiers: Unveiling Pitfalls and Potentials in Fact Verifiers [59.168391398830515]
我々は,14のファクトチェックベンチマークのサンプルを用いて,12の事前学習LDMと1つの特殊ファクト検証器を評価した。
データセットにおけるアノテーションエラーとあいまいさに対処することの重要性を強調します。
最上位のパフォーマンスを実現するために、前作でしばしば見落とされがちな、数ショットのインコンテキストの例を持つフロンティアLSM。
論文 参考訳(メタデータ) (2025-06-16T10:32:10Z) - SCAN: Structured Capability Assessment and Navigation for LLMs [54.54085382131134]
textbfSCAN (Structured Capability Assessment and Navigation) は、大規模言語モデルの詳細な特徴付けを可能にする実用的なフレームワークである。
SCANには4つの重要なコンポーネントが含まれている。
TaxBuilder – クエリから機能表示タグを抽出して階層的な分類構造を構築する。
RealMixは、各機能タグに対する十分な評価データを保証するクエリ合成とフィルタリングのメカニズムである。
PC$2$ベースのLCM-as-a-Judge法は従来のLCM-as-a-Judge法と比較して大幅に精度が向上する
論文 参考訳(メタデータ) (2025-05-10T16:52:40Z) - Utility-Focused LLM Annotation for Retrieval and Retrieval-Augmented Generation [96.18720164390699]
本稿では,大規模言語モデル (LLM) を用いた検索・検索・拡張生成システム (RAG) の訓練における文書ユーティリティのアノテートについて検討する。
以上の結果から,LLM生成アノテーションは,人間のアノテーションや下流QAメトリクスのみを訓練したモデルと比較して,ドメイン外検索性能の向上とRAG結果の改善を図っている。
論文 参考訳(メタデータ) (2025-04-07T16:05:52Z) - Potential and Perils of Large Language Models as Judges of Unstructured Textual Data [0.631976908971572]
本研究では,LLM-as-judgeモデルの有効性を検討した。
LLM-as-judgeは、人間に匹敵するスケーラブルなソリューションを提供するが、人間は微妙で文脈固有のニュアンスを検出するのに優れている。
論文 参考訳(メタデータ) (2025-01-14T14:49:14Z) - Dynamic Sentiment Analysis with Local Large Language Models using Majority Voting: A Study on Factors Affecting Restaurant Evaluation [0.0]
本研究では,局所言語モデルを用いた感情分析モデルに多数決機構を導入する。
レストラン評価に関するオンラインレビューの3つの分析により、複数の試みによる過半数投票は、一つの試みによる大規模なモデルよりも、より堅牢な結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-07-18T00:28:04Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Automating Customer Needs Analysis: A Comparative Study of Large Language Models in the Travel Industry [2.4244694855867275]
大規模言語モデル(LLM)は、大量のテキストデータから貴重な洞察を抽出する強力なツールとして登場した。
本研究では,TripAdvisor と Reddit の投稿から旅行客のニーズを抽出するための LLM の比較分析を行った。
特にMistral 7Bは,大規模クローズドモデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-04-27T18:28:10Z) - A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。