論文の概要: Improving Generative Cross-lingual Aspect-Based Sentiment Analysis with Constrained Decoding
- arxiv url: http://arxiv.org/abs/2508.10369v1
- Date: Thu, 14 Aug 2025 06:07:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.197412
- Title: Improving Generative Cross-lingual Aspect-Based Sentiment Analysis with Constrained Decoding
- Title(参考訳): 制約付き復号化による言語横断的アスペクトベース感性分析の改善
- Authors: Jakub Šmíd, Pavel Přibáň, Pavel Král,
- Abstract要約: 本稿では,シーケンス・ツー・シーケンスモデルを用いた制約付き復号法を提案する。
最も複雑なタスクでは、言語間のパフォーマンスを平均で5%向上させる。
我々は7つの言語と6つのABSAタスクにまたがるアプローチを評価した。
- 参考スコア(独自算出の注目度): 0.8602553195689511
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While aspect-based sentiment analysis (ABSA) has made substantial progress, challenges remain for low-resource languages, which are often overlooked in favour of English. Current cross-lingual ABSA approaches focus on limited, less complex tasks and often rely on external translation tools. This paper introduces a novel approach using constrained decoding with sequence-to-sequence models, eliminating the need for unreliable translation tools and improving cross-lingual performance by 5\% on average for the most complex task. The proposed method also supports multi-tasking, which enables solving multiple ABSA tasks with a single model, with constrained decoding boosting results by more than 10\%. We evaluate our approach across seven languages and six ABSA tasks, surpassing state-of-the-art methods and setting new benchmarks for previously unexplored tasks. Additionally, we assess large language models (LLMs) in zero-shot, few-shot, and fine-tuning scenarios. While LLMs perform poorly in zero-shot and few-shot settings, fine-tuning achieves competitive results compared to smaller multilingual models, albeit at the cost of longer training and inference times. We provide practical recommendations for real-world applications, enhancing the understanding of cross-lingual ABSA methodologies. This study offers valuable insights into the strengths and limitations of cross-lingual ABSA approaches, advancing the state-of-the-art in this challenging research domain.
- Abstract(参考訳): アスペクトベースの感情分析(ABSA)は大きな進歩を遂げているが、低リソース言語では依然として課題が残っている。
現在の言語横断型ABSAアプローチは、制限のあるより複雑なタスクに重点を置いており、しばしば外部翻訳ツールに依存している。
本稿では,シーケンス・ツー・シーケンス・モデルを用いた制約付き復号法を導入し,信頼できない翻訳ツールの必要性を排除し,言語間性能を最も複雑なタスクに対して平均5倍改善する手法を提案する。
提案手法は,複数のABSAタスクを単一モデルで解くマルチタスクもサポートし,制約付き復号化により10倍以上の処理結果が得られた。
我々は、7つの言語と6つのABSAタスクにまたがるアプローチを評価し、最先端の手法を超越し、未探索タスクのための新しいベンチマークを設定した。
さらに、ゼロショット、少数ショット、微調整シナリオで大きな言語モデル(LLM)を評価する。
LLMはゼロショットや少数ショットの設定では性能が劣るが、細調整はより小さなマルチランガルモデルと比較して、より長いトレーニングと推論時間で競合する結果が得られる。
我々は,実世界のアプリケーションに対して実践的なレコメンデーションを提供し,言語間ABSA手法の理解を深める。
この研究は、言語間ABSAアプローチの強みと限界に関する貴重な洞察を与え、この挑戦的な研究領域における最先端の研究を進める。
関連論文リスト
- Advancing Cross-lingual Aspect-Based Sentiment Analysis with LLMs and Constrained Decoding for Sequence-to-Sequence Models [0.8602553195689511]
現在の言語横断型ABSA研究は、単純なタスクに重点を置いており、外部翻訳ツールに大きく依存している。
本稿では,複雑なABSAタスクのための新しいシーケンス・ツー・シーケンス方式を提案する。
制約付き復号法を用いる我々の手法は,言語間ABSAの性能を最大10%向上させる。
論文 参考訳(メタデータ) (2025-08-14T06:07:43Z) - Few-shot Cross-lingual Aspect-Based Sentiment Analysis with Sequence-to-Sequence Models [0.8602553195689511]
4つのABSAタスクと6つのターゲット言語と2つのシーケンス・ツー・シーケンス・モデルからなるトレーニングセットに、少数ショット対象言語サンプルを追加する効果を評価する。
我々は、1000のターゲット言語例と英語データを組み合わせることで、モノリンガルベースラインを超越することも実証した。
論文 参考訳(メタデータ) (2025-08-11T11:31:37Z) - MMTEB: Massive Multilingual Text Embedding Benchmark [85.18187649328792]
我々はMMTEBベンチマーク(Massive Multilingual Text Embedding Benchmark)を紹介する。
MMTEBは250以上の言語で500以上の品質管理された評価タスクをカバーしている。
我々は複数の多言語ベンチマークを開発し、モデルを代表的に評価する。
論文 参考訳(メタデータ) (2025-02-19T10:13:43Z) - Demystifying Multilingual Chain-of-Thought in Process Reward Modeling [71.12193680015622]
プロセス報酬モデル(PRM)を多言語設定に拡張するという課題に対処する。
我々は、7つの言語にまたがるデータセット上で多言語PRMを訓練し、それを英語から翻訳する。
本結果は,学習言語数と英語データ量の両方に対する多言語PRMの感度を強調した。
論文 参考訳(メタデータ) (2025-02-18T09:11:44Z) - Evaluating Zero-Shot Multilingual Aspect-Based Sentiment Analysis with Large Language Models [0.9832963381777073]
我々は,大規模言語モデル(LLM)をゼロショット条件下で評価し,ABSA課題に取り組む可能性を探る。
本稿では,バニラゼロショット,チェーン・オブ・シント(CoT),自己改善,自己議論,自己整合性など,様々な促進策について検討する。
その結果、LLMは多言語ABSAを扱う上での有望性を示すが、一般的には細調整されたタスク固有モデルに欠けることがわかった。
論文 参考訳(メタデータ) (2024-12-17T05:48:48Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。