論文の概要: Large Language Models for Czech Aspect-Based Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2508.07860v1
- Date: Mon, 11 Aug 2025 11:24:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.06259
- Title: Large Language Models for Czech Aspect-Based Sentiment Analysis
- Title(参考訳): チェコの視点に基づく感性分析のための大規模言語モデル
- Authors: Jakub Šmíd, Pavel Přibáň, Pavel Král,
- Abstract要約: ドメイン固有の小さなモデルでは、ABSAはゼロショットと少数ショットの設定で汎用LLMより優れている。
我々は,多言語性,モデルサイズ,遅延などの要因が性能に与える影響を分析し,重要な課題を浮き彫りにする誤り解析を提示する。
- 参考スコア(独自算出の注目度): 0.8602553195689511
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Aspect-based sentiment analysis (ABSA) is a fine-grained sentiment analysis task that aims to identify sentiment toward specific aspects of an entity. While large language models (LLMs) have shown strong performance in various natural language processing (NLP) tasks, their capabilities for Czech ABSA remain largely unexplored. In this work, we conduct a comprehensive evaluation of 19 LLMs of varying sizes and architectures on Czech ABSA, comparing their performance in zero-shot, few-shot, and fine-tuning scenarios. Our results show that small domain-specific models fine-tuned for ABSA outperform general-purpose LLMs in zero-shot and few-shot settings, while fine-tuned LLMs achieve state-of-the-art results. We analyze how factors such as multilingualism, model size, and recency influence performance and present an error analysis highlighting key challenges, particularly in aspect term prediction. Our findings provide insights into the suitability of LLMs for Czech ABSA and offer guidance for future research in this area.
- Abstract(参考訳): アスペクトベースの感情分析(ABSA)は、エンティティの特定の側面に対する感情を特定することを目的とした、きめ細かい感情分析タスクである。
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて高いパフォーマンスを示しているが、チェコのABSAの能力はいまだに明らかにされていない。
本研究では,チェコのABSAにおいて,異なるサイズとアーキテクチャの19のLLMを総合的に評価し,ゼロショット,少数ショット,微調整シナリオにおける性能を比較した。
以上の結果から,ABSA 用小型ドメイン固有モデルではゼロショットおよび少数ショット設定で汎用 LLM の精度が向上し,微調整 LLM では最先端の成果が得られた。
本稿では,多言語性,モデルサイズ,遅延などの要因が性能に与える影響を解析し,特にアスペクト項予測において重要な課題を浮き彫りにする誤り解析を提案する。
本研究は,チェコABSAにおけるLLMの適合性に関する知見と今後の研究の指針を提供するものである。
関連論文リスト
- Ensemble Bayesian Inference: Leveraging Small Language Models to Achieve LLM-level Accuracy in Profile Matching Tasks [0.0]
本研究では,プロプライエタリな大規模言語モデル (LLM) に匹敵する精度を実現するため,小型言語モデル (SLM) アンサンブルの可能性を検討する。
本稿では,複数のSLMから判断を合成するためにベイズ推定を適用した新しい手法として,EBI(Ensemble Bayesian Inference)を提案する。
論文 参考訳(メタデータ) (2025-04-24T15:55:10Z) - From Annotation to Adaptation: Metrics, Synthetic Data, and Aspect Extraction for Aspect-Based Sentiment Analysis with Large Language Models [1.5020330976600738]
本研究では,Aspect-Based Sentiment Analysis(ABSA)におけるLarge Language Models(LLMs)の性能について検討する。
合成スポーツフィードバックデータセットを用いて、アスペクトポーラリティペアを抽出するオープンウェイトLLMの能力を評価する。
論文 参考訳(メタデータ) (2025-03-26T16:52:40Z) - Evaluating Zero-Shot Multilingual Aspect-Based Sentiment Analysis with Large Language Models [0.9832963381777073]
我々は,大規模言語モデル(LLM)をゼロショット条件下で評価し,ABSA課題に取り組む可能性を探る。
本稿では,バニラゼロショット,チェーン・オブ・シント(CoT),自己改善,自己議論,自己整合性など,様々な促進策について検討する。
その結果、LLMは多言語ABSAを扱う上での有望性を示すが、一般的には細調整されたタスク固有モデルに欠けることがわかった。
論文 参考訳(メタデータ) (2024-12-17T05:48:48Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Unveiling Linguistic Regions in Large Language Models [49.298360366468934]
大規模言語モデル (LLM) は言語間アライメントと一般化能力を示す。
本稿では,LLMの言語能力に関するいくつかの調査を行う。
論文 参考訳(メタデータ) (2024-02-22T16:56:13Z) - BLESS: Benchmarking Large Language Models on Sentence Simplification [55.461555829492866]
我々は、テキスト単純化(TS)タスク上で、最新の最先端の大規模言語モデル(LLM)のパフォーマンスベンチマークであるBLESSを紹介する。
異なるドメイン(Wikipedia、ニュース、医療)の3つのテストセットに対して、サイズ、アーキテクチャ、事前学習方法、アクセシビリティの異なる44のモデルを評価する。
評価の結果,最高のLSMはTSのトレーニングを受けていないにもかかわらず,最先端のTSベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2023-10-24T12:18:17Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - Multilingual Multi-Aspect Explainability Analyses on Machine Reading Comprehension Models [76.48370548802464]
本稿では,マルチヘッド自己注意と最終MRCシステム性能の関係を検討するために,一連の解析実験を実施することに焦点を当てる。
問合せ及び問合せ理解の注意が問合せプロセスにおいて最も重要なものであることが判明した。
包括的可視化とケーススタディを通じて、注意マップに関するいくつかの一般的な知見も観察し、これらのモデルがどのように問題を解くかを理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-08-26T04:23:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。