論文の概要: LLM-as-an-Annotator: Training Lightweight Models with LLM-Annotated Examples for Aspect Sentiment Tuple Prediction
- arxiv url: http://arxiv.org/abs/2603.01778v1
- Date: Mon, 02 Mar 2026 12:03:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.855546
- Title: LLM-as-an-Annotator: Training Lightweight Models with LLM-Annotated Examples for Aspect Sentiment Tuple Prediction
- Title(参考訳): LLM-as-an-Annotator:LLMを用いた軽量モデルの訓練-アスペクト感度タプル予測のためのアノテーション例
- Authors: Nils Constantin Hellwig, Jakob Fehle, Udo Kruschwitz, Christian Wolff,
- Abstract要約: 本稿では,LA-ABSAを提案する。LA-ABSAは,Large Language Model (LLM) の生成したアノテーションを,複雑なABSAタスクのための微調整軽量モデルに活用する新しいアプローチである。
ターゲット・アスペクト・センシティメント検出(TASD)とアスペクト・センシティメント・クオード・予測(ASQP)の5つのデータセットに対するアプローチを評価する。
- 参考スコア(独自算出の注目度): 5.745953883559217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training models for Aspect-Based Sentiment Analysis (ABSA) tasks requires manually annotated data, which is expensive and time-consuming to obtain. This paper introduces LA-ABSA, a novel approach that leverages Large Language Model (LLM)-generated annotations to fine-tune lightweight models for complex ABSA tasks. We evaluate our approach on five datasets for Target Aspect Sentiment Detection (TASD) and Aspect Sentiment Quad Prediction (ASQP). Our approach outperformed previously reported augmentation strategies and achieved competitive performance with LLM-prompting in low-resource scenarios, while providing substantial energy efficiency benefits. For example, using 50 annotated examples for in-context learning (ICL) to guide the annotation of unlabeled data, LA-ABSA achieved an F1 score of 49.85 for ASQP on the SemEval Rest16 dataset, closely matching the performance of ICL prompting with Gemma-3-27B (51.10), while requiring significantly lower computational resources.
- Abstract(参考訳): Aspect-Based Sentiment Analysis (ABSA)タスクのトレーニングモデルは、手動で注釈付きデータを必要とする。
本稿では,LA-ABSAを提案する。LA-ABSAは,Large Language Model (LLM) の生成したアノテーションを,複雑なABSAタスクのための微調整軽量モデルに活用する新しいアプローチである。
本研究は,TASD(Target Aspect Sentiment Detection)とASQP(Aspect Sentiment Quad Prediction)の5つのデータセットに対するアプローチを評価する。
提案手法は以前報告した拡張戦略より優れ,低リソースシナリオにおけるLLMプロンプトと競合する性能を実現し,エネルギー効率の大幅な向上を実現した。
例えば、インコンテキスト学習(ICL)の50の注釈付き例を用いて、LA-ABSAはSemEval Rest16データセットでASQPのF1スコア49.85を達成し、Gemma-3-27B (51.10) とICLのパフォーマンスを密に一致させた。
関連論文リスト
- SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - Large Language Models Enhanced by Plug and Play Syntactic Knowledge for Aspect-based Sentiment Analysis [18.58619664067155]
アスペクトベースの感情分析(ABSA)は一般的に文脈情報の深い理解を必要とする。
本稿では,構文情報を記録し,言語モデル(LLM)に組み込まれ,感情極性の予測を指示するメモリモジュールを提案する。
論文 参考訳(メタデータ) (2025-06-15T23:16:12Z) - Utility-Focused LLM Annotation for Retrieval and Retrieval-Augmented Generation [96.18720164390699]
本稿では,大規模言語モデル (LLM) を用いた検索・検索・拡張生成システム (RAG) の訓練における文書ユーティリティのアノテートについて検討する。
以上の結果から,LLM生成アノテーションは,人間のアノテーションや下流QAメトリクスのみを訓練したモデルと比較して,ドメイン外検索性能の向上とRAG結果の改善を図っている。
論文 参考訳(メタデータ) (2025-04-07T16:05:52Z) - From Annotation to Adaptation: Metrics, Synthetic Data, and Aspect Extraction for Aspect-Based Sentiment Analysis with Large Language Models [1.5020330976600738]
本研究では,Aspect-Based Sentiment Analysis(ABSA)におけるLarge Language Models(LLMs)の性能について検討する。
合成スポーツフィードバックデータセットを用いて、アスペクトポーラリティペアを抽出するオープンウェイトLLMの能力を評価する。
論文 参考訳(メタデータ) (2025-03-26T16:52:40Z) - From Drafts to Answers: Unlocking LLM Potential via Aggregation Fine-Tuning [31.95005389919542]
データスケールとモデルサイズは、大規模言語モデルの性能向上に有効であることが証明されている。
本稿では,教師付きファインチューニングパラダイムであるAggregation Fine-Tuning(AFT)を紹介する。
ベンチマークデータセットの実証評価では、AFT訓練されたモデルは標準のSFTよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-01-21T04:11:59Z) - Instruction Tuning with Retrieval-based Examples Ranking for Aspect-based Sentiment Analysis [7.458853474864602]
アスペクトベースの感情分析(ABSA)は、特定の側面に関連する感情情報を識別し、企業や組織に対してより深い市場洞察を提供する。
近年の研究では、ABSAを生成タスクとして再構成する命令チューニングの固定例が提案されている。
本研究では,ABSAタスクの検索に基づくサンプルランキングを用いた指導学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-28T10:39:10Z) - Large Language Models for Data Annotation and Synthesis: A Survey [49.8318827245266]
本調査は,データアノテーションと合成のための大規模言語モデルの有用性に焦点を当てる。
LLMがアノテートできるデータタイプの詳細な分類、LLM生成アノテーションを利用したモデルの学習戦略のレビュー、データアノテーションと合成にLLMを使用する際の主な課題と制限に関する詳細な議論を含む。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。