論文の概要: Advancing Cross-lingual Aspect-Based Sentiment Analysis with LLMs and Constrained Decoding for Sequence-to-Sequence Models
- arxiv url: http://arxiv.org/abs/2508.10366v1
- Date: Thu, 14 Aug 2025 06:07:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.194778
- Title: Advancing Cross-lingual Aspect-Based Sentiment Analysis with LLMs and Constrained Decoding for Sequence-to-Sequence Models
- Title(参考訳): 連続列列モデルのLLMと制約付き復号化による言語間アスペクトベース感性解析の強化
- Authors: Jakub Šmíd, Pavel Přibáň, Pavel Král,
- Abstract要約: 現在の言語横断型ABSA研究は、単純なタスクに重点を置いており、外部翻訳ツールに大きく依存している。
本稿では,複雑なABSAタスクのための新しいシーケンス・ツー・シーケンス方式を提案する。
制約付き復号法を用いる我々の手法は,言語間ABSAの性能を最大10%向上させる。
- 参考スコア(独自算出の注目度): 0.8602553195689511
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Aspect-based sentiment analysis (ABSA) has made significant strides, yet challenges remain for low-resource languages due to the predominant focus on English. Current cross-lingual ABSA studies often centre on simpler tasks and rely heavily on external translation tools. In this paper, we present a novel sequence-to-sequence method for compound ABSA tasks that eliminates the need for such tools. Our approach, which uses constrained decoding, improves cross-lingual ABSA performance by up to 10\%. This method broadens the scope of cross-lingual ABSA, enabling it to handle more complex tasks and providing a practical, efficient alternative to translation-dependent techniques. Furthermore, we compare our approach with large language models (LLMs) and show that while fine-tuned multilingual LLMs can achieve comparable results, English-centric LLMs struggle with these tasks.
- Abstract(参考訳): アスペクトベースの感情分析(ABSA)は大きな進歩を遂げているが、英語に重点を置いているため、低リソース言語には課題が残っている。
現在の言語横断型ABSA研究は、単純なタスクに重点を置いており、外部翻訳ツールに大きく依存している。
本稿では,複雑なABSAタスクのための新しいシーケンス・ツー・シーケンス方式を提案する。
制約付き復号法を用いる我々の手法は,言語間ABSAの性能を最大10倍向上させる。
この方法は言語間ABSAの範囲を広げ、より複雑なタスクを処理し、翻訳依存技術に代わる実用的で効率的な代替手段を提供する。
さらに、我々のアプローチを大規模言語モデル(LLM)と比較し、微調整された多言語 LLM が同等の結果が得られる一方で、英語中心の LLM はこれらの課題に苦しむことを示す。
関連論文リスト
- Code-Switching In-Context Learning for Cross-Lingual Transfer of Large Language Models [64.54005959758733]
我々は,コードスイッチング・イン・コンテキスト・ラーニング(CSICL)を,推論中の翻訳障壁を克服するための原則的かつ堅牢なアプローチとして導入する。
4つのLLM、6つのデータセット、10の言語にわたる広範な実験を行い、知識集約型ドメインと推論指向ドメインの両方にまたがる。
その結果、CSICLはX-ICLベースラインを一貫して上回り、ターゲット言語と見当たらない言語の両方で3.1%pと1.9%pを達成した。
論文 参考訳(メタデータ) (2025-10-07T08:35:42Z) - Improving Generative Cross-lingual Aspect-Based Sentiment Analysis with Constrained Decoding [0.8602553195689511]
本稿では,シーケンス・ツー・シーケンスモデルを用いた制約付き復号法を提案する。
最も複雑なタスクでは、言語間のパフォーマンスを平均で5%向上させる。
我々は7つの言語と6つのABSAタスクにまたがるアプローチを評価した。
論文 参考訳(メタデータ) (2025-08-14T06:07:53Z) - Cross-lingual Aspect-Based Sentiment Analysis: A Survey on Tasks, Approaches, and Challenges [0.9668407688201359]
アスペクトベースの感情分析(ABSA)は、アスペクトレベルで意見を理解することに焦点を当てた、きめ細かい感情分析タスクである。
ABSAは、リソース豊富な言語(英語など)から低リソース言語への知識の転送を目的としている。
論文 参考訳(メタデータ) (2025-08-13T05:55:53Z) - Few-shot Cross-lingual Aspect-Based Sentiment Analysis with Sequence-to-Sequence Models [0.8602553195689511]
4つのABSAタスクと6つのターゲット言語と2つのシーケンス・ツー・シーケンス・モデルからなるトレーニングセットに、少数ショット対象言語サンプルを追加する効果を評価する。
我々は、1000のターゲット言語例と英語データを組み合わせることで、モノリンガルベースラインを超越することも実証した。
論文 参考訳(メタデータ) (2025-08-11T11:31:37Z) - Cross-Lingual Pitfalls: Automatic Probing Cross-Lingual Weakness of Multilingual Large Language Models [55.14276067678253]
本稿では,Large Language Models (LLMs) における言語間関係の弱点を効率的に同定するための新しい手法を提案する。
この手法を用いて16言語で6,000以上のバイリンガルペアからなる新しいデータセットを構築し、最先端のモデルにおいても弱点を明らかにする効果を実証した。
さらに,言語的類似性と言語間の弱点との関係について検討し,言語的関連言語が類似した演奏パターンを共有することを明らかにした。
論文 参考訳(メタデータ) (2025-05-24T12:31:27Z) - Evaluating Zero-Shot Multilingual Aspect-Based Sentiment Analysis with Large Language Models [0.9832963381777073]
我々は,大規模言語モデル(LLM)をゼロショット条件下で評価し,ABSA課題に取り組む可能性を探る。
本稿では,バニラゼロショット,チェーン・オブ・シント(CoT),自己改善,自己議論,自己整合性など,様々な促進策について検討する。
その結果、LLMは多言語ABSAを扱う上での有望性を示すが、一般的には細調整されたタスク固有モデルに欠けることがわかった。
論文 参考訳(メタデータ) (2024-12-17T05:48:48Z) - Improving In-Context Learning with Small Language Model Ensembles [2.3499129784547654]
In-context Learning (ICL) は安価で効率的な代替手段であるが、高度な手法の精度と一致しない。
本稿では,複数の微調整小言語モデル(SLM)の専門知識を活用することでICLを強化する新しいアプローチであるEnsemble SuperICLを提案する。
論文 参考訳(メタデータ) (2024-10-29T09:02:37Z) - Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Analyzing and Adapting Large Language Models for Few-Shot Multilingual
NLU: Are We There Yet? [82.02076369811402]
教師付きファインチューニング(SFT)、教師付きインストラクションチューニング(SIT)、インコンテキストラーニング(ICL)は、3つの代替であり、事実上の標準的アプローチである。
提案手法は,6つの高・低リソース言語,3つの異なるNLUタスク,多種多様な言語とドメインのセットアップを用いて,3つのアプローチを網羅的かつ体系的に比較する。
そこで本研究では,教師あり指導のチューニングが,性能とリソース要件の最良のトレードオフであることを示す。
論文 参考訳(メタデータ) (2024-03-04T10:48:13Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。