論文の概要: nchellwig at SemEval-2026 Task 3: Self-Consistent Structured Generation (SCSG) for Dimensional Aspect-Based Sentiment Analysis using Large Language Models
- arxiv url: http://arxiv.org/abs/2603.01788v1
- Date: Mon, 02 Mar 2026 12:13:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.861726
- Title: nchellwig at SemEval-2026 Task 3: Self-Consistent Structured Generation (SCSG) for Dimensional Aspect-Based Sentiment Analysis using Large Language Models
- Title(参考訳): SemEval-2026 Task 3: Self-Consistent Structured Generation (SCSG) for dimensional Aspect-Based Sentiment Analysis using Large Language Models (英語)
- Authors: Nils Constantin Hellwig, Jakob Fehle, Udo Kruschwitz, Christian Wolff,
- Abstract要約: SemEval-2026タスク3における次元アスペクトベース感性分析のための自己持続構造生成(SCSG)を提案する(トラックA)
SCSGはインスタンス毎に複数回大きな言語モデルを実行し、実行中に過半数のコンセンサスを達成するだけのものを保持する。
15個の実行を持つ自己整合性は、単一推論のプロンプトよりも統計的に有意な改善をもたらすことを示す。
- 参考スコア(独自算出の注目度): 5.745953883559217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Self-Consistent Structured Generation (SCSG) for Dimensional Aspect-Based Sentiment Analysis in SemEval-2026 Task 3 (Track A). SCSG enhances prediction reliability by executing a LoRA-adapted large language model multiple times per instance, retaining only tuples that achieve a majority consensus across runs. To mitigate the computational overhead of multiple forward passes, we leverage vLLM's PagedAttention mechanism for efficient key--value cache reuse. Evaluation across 6 languages and 8 language--domain combinations demonstrates that self-consistency with 15 executions yields statistically significant improvements over single-inference prompting, with our system (leveraging Gemma 3) ranking in the top seven across all settings, achieving second place on three out of four English subsets and first place on Tatar-Restaurant for DimASTE.
- Abstract(参考訳): 本研究では,SemEval-2026タスク3(トラックA)における次元アスペクトベース感性分析のための自己一貫性構造生成(SCSG)を提案する。
SCSGは,インスタンス毎に複数回LoRA対応の大規模言語モデルを実行することで,予測信頼性の向上を実現している。
マルチフォワードパスの計算オーバーヘッドを軽減するため,vLLMのPagedAttention機構を利用して,効率的なキー-値キャッシュ再利用を行う。6言語と8言語-ドメインの組み合わせで評価すると,15の実行による自己整合性が単一推論よりも統計的に有意な改善をもたらすことが示され,我々のシステム(Gemma3)は,すべての設定で上位7位にランクインし,DimASTEのTatar-Restaurantで3位,そしてDimASTEのTatar-Restaurantで1位にランクインした。
関連論文リスト
- AILS-NTUA at SemEval-2026 Task 3: Efficient Dimensional Aspect-Based Sentiment Analysis [13.528308058170479]
次元アスペクトベース感性分析(DimABSA)に基づくSemEval-2026タスク3のトラックAのためのAILS-NTUAシステムを提案する。
提案手法は,連続的なアスペクトレベルの感情予測のための言語固有バックボーンの微調整と,LoRAを用いた大規模言語モデルの言語固有命令チューニングを併用する。
この統合されたタスク適応型設計は、言語とドメイン間のパラメータ効率の高い特殊化を強調し、強力な有効性を維持しながら、トレーニングと推論の要求を削減できる。
論文 参考訳(メタデータ) (2026-03-05T08:30:59Z) - VisCoder2: Building Multi-Language Visualization Coding Agents [63.63232038173407]
可視化符号化エージェントを進化させるための3つの相補的なリソースを紹介する。
VisCoder2は、強力なオープンソースベースラインを著しく上回り、プロプライエタリなモデルのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2025-10-24T18:03:57Z) - CLaC at DISRPT 2025: Hierarchical Adapters for Cross-Framework Multi-lingual Discourse Relation Classification [0.0509780930114934]
タスク3では、39のコーパスにまたがる17の談話関係ラベルが16の言語と6の談話フレームワークで統合されている。
まず、多言語BERTベースのモデルに2つの引数順序戦略とプログレッシブ・フリーズ比を併用してタスクをベンチマークする。
次に、ゼロショットおよび少数ショット設定でプロンプトベースの大規模言語モデルを評価し、新たに提案された統一ラベルに対してLLMがどう反応するかを理解する。
論文 参考訳(メタデータ) (2025-09-21T03:34:31Z) - SPARE: Single-Pass Annotation with Reference-Guided Evaluation for Automatic Process Supervision and Reward Modelling [58.05959902776133]
私たちはSingle-Passを紹介します。
Reference-Guided Evaluation (SPARE)は、効率的なステップごとのアノテーションを可能にする新しい構造化フレームワークである。
数学的推論(GSM8K, MATH)、マルチホップ質問応答(MuSiQue-Ans)、空間推論(SpaRP)にまたがる4つの多様なデータセットにおけるSPAREの有効性を実証する。
ProcessBenchでは、SPAREがデータ効率のよいアウト・オブ・ディストリビューションの一般化を実証し、トレーニングサンプルの$sim$16%しか使用していない。
論文 参考訳(メタデータ) (2025-06-18T14:37:59Z) - CLaC at SemEval-2025 Task 6: A Multi-Architecture Approach for Corporate Environmental Promise Verification [0.20482269513546458]
本稿では,企業ESG(環境・社会・ガバナンス)レポートにおける約束の検証に焦点を当てたSemEval-2025 Task6(PromiseEval)について述べる。
本研究では,3つのモデルアーキテクチャを探索し,確証評価,明確性評価,検証タイミングの4つのサブタスクに対処する。
本研究は,クラス不均衡や限られた訓練データによる課題にもかかわらず,言語的特徴抽出,注意プーリング,多目的学習の有効性を強調した。
論文 参考訳(メタデータ) (2025-05-29T15:19:00Z) - Enhancing LLM Language Adaption through Cross-lingual In-Context Pre-training [57.62126373849383]
CrossIC-PT(クロスランガル・イン・コンテクスト・プレトレーニング)は、クロスランガル・トランスファーを強化するシンプルでスケーラブルなアプローチである。
セマンティック関連のバイリンガルウィキペディア文書を1つのコンテキストウィンドウにインターリーブすることで、CrossIC-PTサンプルを構築する。
実験の結果、CrossIC-PTは6つの対象言語にわたる3つのモデルの多言語性能を改善することが示された。
論文 参考訳(メタデータ) (2025-04-29T07:24:25Z) - M-RAG: Reinforcing Large Language Model Performance through Retrieval-Augmented Generation with Multiple Partitions [16.188375536066044]
Retrieval-Augmented Generation (RAG)は、外部データベースから関連するメモリを取得することで、Large Language Models (LLM)を強化する。
既存のRAGメソッドは通常、データベース全体のすべてのメモリを整理する。
本稿では、複数の分割パラダイムをRAG(M-RAG)に導入し、各データベース分割をRAG実行の基本単位とする。
論文 参考訳(メタデータ) (2024-05-26T04:03:13Z) - Domain-Expanded ASTE: Rethinking Generalization in Aspect Sentiment Triplet Extraction [67.54420015049732]
Aspect Sentiment Triplet extract (ASTE) は感情分析における課題であり、人間の感情に対するきめ細かい洞察を提供することを目的としている。
既存のベンチマークは2つのドメインに限定されており、目に見えないドメイン上でのモデルパフォーマンスを評価しない。
各種ドメインのサンプルに注釈を付けることでドメイン拡張ベンチマークを導入し,ドメイン内設定とドメイン外設定の両方でモデルの評価を可能にする。
論文 参考訳(メタデータ) (2023-05-23T18:01:49Z) - A Multi-Task BERT Model for Schema-Guided Dialogue State Tracking [78.2700757742992]
タスク指向対話システムは対話状態追跡器(DST)を用いて会話を完了させる。
最近の最先端のDST実装は、モデルの堅牢性を改善するために様々なサービスのスキーマに依存している。
本稿では,意図予測,要求スロット予測,スロットフィリングの3つのDSTタスクを協調的に解決する単一マルチタスクBERTモデルを提案する。
論文 参考訳(メタデータ) (2022-07-02T13:27:59Z) - A Simple, Strong and Robust Baseline for Distantly Supervised Relation
Extraction [19.146415895872956]
私たちはPassage-Attと呼ばれる新しいアグリゲーションスキームを思いついた。
このアグリゲーションスキームでは、エンティティペアに言及するすべてのインスタンスを"インスタンスのパス"にまとめます。
これらの要約は、潜在的な三重項の妥当性を予測するために使われる。
BERTをパスエンコーダとして使用したPassage-Attは,3つの異なる設定で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-10-14T14:45:51Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - A Simple Language Model for Task-Oriented Dialogue [61.84084939472287]
SimpleTODはタスク指向対話に対する単純なアプローチであり、すべてのサブタスクのリキャストで訓練された単一因果言語モデルを単一シーケンス予測問題として利用する。
これによりSimpleTODは、事前訓練されたオープンドメイン、GPT-2のような因果言語モデルからのトランスファー学習を完全に活用できる。
論文 参考訳(メタデータ) (2020-05-02T11:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。