論文の概要: QuadAI at SemEval-2026 Task 3: Ensemble Learning of Hybrid RoBERTa and LLMs for Dimensional Aspect-Based Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2603.07766v1
- Date: Sun, 08 Mar 2026 18:59:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.203092
- Title: QuadAI at SemEval-2026 Task 3: Ensemble Learning of Hybrid RoBERTa and LLMs for Dimensional Aspect-Based Sentiment Analysis
- Title(参考訳): SemEval-2026 Task 3:Ensemble Learning of Hybrid RoBERTa and LLMs for dimensional Aspect-Based Sentiment Analysis
- Authors: A. J. W. de Vink, Filippos Karolos Ventirozos, Natalia Amat-Lefort, Lifeng Han,
- Abstract要約: 本稿では,SemEval-2026タスク3の次元的側面に基づく感情回帰に関するシステムを提案する。
提案手法は,回帰と離散化を用いた感情予測を併用したハイブリッドRoBERTaエンコーダである。
- 参考スコア(独自算出の注目度): 3.1948816877289268
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present our system for SemEval-2026 Task 3 on dimensional aspect-based sentiment regression. Our approach combines a hybrid RoBERTa encoder, which jointly predicts sentiment using regression and discretized classification heads, with large language models (LLMs) via prediction-level ensemble learning. The hybrid encoder improves prediction stability by combining continuous and discretized sentiment representations. We further explore in-context learning with LLMs and ridge-regression stacking to combine encoder and LLM predictions. Experimental results on the development set show that ensemble learning significantly improves performance over individual models, achieving substantial reductions in RMSE and improvements in correlation scores. Our findings demonstrate the complementary strengths of encoder-based and LLM-based approaches for dimensional sentiment analysis. Our development code and resources will be shared at https://github.com/aaronlifenghan/ABSentiment
- Abstract(参考訳): 本稿では,SemEval-2026タスク3の次元的側面に基づく感情回帰に関するシステムを提案する。
提案手法は,回帰型と離散型分類頭を用いた感情予測を併用したハイブリッドRoBERTaエンコーダと,予測レベルのアンサンブル学習による大規模言語モデル(LLM)を組み合わせる。
ハイブリッドエンコーダは、連続した感情表現と離散化された感情表現を組み合わせることで予測安定性を向上させる。
さらに、エンコーダとLLM予測を組み合わせるために、LLMとリッジ-レグレッションスタックを用いたインコンテキスト学習について検討する。
実験結果から,アンサンブル学習は個々のモデルよりも性能が有意に向上し,RMSEの大幅な削減と相関スコアの改善が達成された。
本研究は,エンコーダ法とLCM法を併用した次元感情分析手法の相補的長所を示すものである。
私たちの開発コードとリソースはhttps://github.com/aaronlifenghan/ABSentimentで共有されます。
関連論文リスト
- Harmonizing Diverse Models: A Layer-wise Merging Strategy for Consistent Generation [8.340691940980834]
LLM(Large Language Models)は、検索されたコンテキストに基づいて正確で信頼性の高い応答を生成する。
LLMはしばしば意味論的に等価な入力に対して一貫性のない出力を生成する。
本稿では, 体系的な合成データ生成, 組込み性向上のための三重項損失, レイヤワイドモデルマージ手法を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2025-10-16T17:30:28Z) - Multimodal Behavioral Patterns Analysis with Eye-Tracking and LLM-Based Reasoning [12.054910727620154]
視線追跡データは、ユーザの認知状態に関する貴重な洞察を明らかにするが、その構造化された非言語的な性質のために分析することは困難である。
本稿では、視線追跡信号からの認知パターン抽出を促進するために、マルチモーダルな人間-AI協調フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-24T09:49:53Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - Mix Data or Merge Models? Balancing the Helpfulness, Honesty, and Harmlessness of Large Language Model via Model Merging [36.00016254809852]
本稿では, 3H 対応 LLM の構築におけるモデルマージとデータ混合手法の有効性を体系的に比較する。
そこで本稿では,新しいtextbfReweighting textbfEnhanced Task textbfSingular textbfMerging method, textbfRESMを提案する。
論文 参考訳(メタデータ) (2025-02-08T11:56:58Z) - Improving Autoregressive Visual Generation with Cluster-Oriented Token Prediction [52.09472099976885]
IARは、LLMベースのビジュアル生成モデルのトレーニング効率と生成品質を向上させる改良された自動回帰ビジュアル生成方法である。
提案手法は,モデルのトレーニング効率と性能を100Mから1.4Bに継続的に向上させ,同じFIDを達成しながらトレーニング時間を半減させる。
論文 参考訳(メタデータ) (2025-01-01T15:58:51Z) - CoMMIT: Coordinated Multimodal Instruction Tuning [90.1532838391285]
マルチモーダル大言語モデル(MLLM)は一般に、バックボーンLLMと非テキスト入力モードの特徴エンコーダ間の協調学習を含む。
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
本稿では,学習のバランスを定量的に測定できるマルチモーダルバランス係数を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。