論文の概要: Few-shot Cross-lingual Aspect-Based Sentiment Analysis with Sequence-to-Sequence Models
- arxiv url: http://arxiv.org/abs/2508.07866v1
- Date: Mon, 11 Aug 2025 11:31:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.064371
- Title: Few-shot Cross-lingual Aspect-Based Sentiment Analysis with Sequence-to-Sequence Models
- Title(参考訳): シーケンス・ツー・シークエンス・モデルを用いたクロスリンガルアスペクトの知覚分析
- Authors: Jakub Šmíd, Pavel Přibáň, Pavel Král,
- Abstract要約: 4つのABSAタスクと6つのターゲット言語と2つのシーケンス・ツー・シーケンス・モデルからなるトレーニングセットに、少数ショット対象言語サンプルを追加する効果を評価する。
我々は、1000のターゲット言語例と英語データを組み合わせることで、モノリンガルベースラインを超越することも実証した。
- 参考スコア(独自算出の注目度): 0.8602553195689511
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Aspect-based sentiment analysis (ABSA) has received substantial attention in English, yet challenges remain for low-resource languages due to the scarcity of labelled data. Current cross-lingual ABSA approaches often rely on external translation tools and overlook the potential benefits of incorporating a small number of target language examples into training. In this paper, we evaluate the effect of adding few-shot target language examples to the training set across four ABSA tasks, six target languages, and two sequence-to-sequence models. We show that adding as few as ten target language examples significantly improves performance over zero-shot settings and achieves a similar effect to constrained decoding in reducing prediction errors. Furthermore, we demonstrate that combining 1,000 target language examples with English data can even surpass monolingual baselines. These findings offer practical insights for improving cross-lingual ABSA in low-resource and domain-specific settings, as obtaining ten high-quality annotated examples is both feasible and highly effective.
- Abstract(参考訳): アスペクトベースの感情分析(ABSA)は、英語でかなりの注目を集めているが、ラベル付きデータの不足のため、低リソース言語には課題が残っている。
現在の言語横断型ABSAアプローチは、しばしば外部翻訳ツールに依存し、少数のターゲット言語例をトレーニングに組み込むことの潜在的な利点を見落としている。
本稿では、4つのABSAタスク、6つのターゲット言語、2つのシーケンス・ツー・シーケンス・モデルからなるトレーニングセットに、少数ショット対象言語例を追加する効果を評価する。
ターゲット言語を最大10個追加するだけでゼロショット設定よりも性能が大幅に向上し、予測誤りの低減に制約付き復号と同じような効果が得られることを示す。
さらに、1000のターゲット言語例と英語データを組み合わせることで、モノリンガルベースラインを超越することも実証した。
これらの知見は,低リソースおよびドメイン固有の設定において,言語間ABSAを改善するための実践的な洞察を与える。
関連論文リスト
- Cross-Lingual Pitfalls: Automatic Probing Cross-Lingual Weakness of Multilingual Large Language Models [55.14276067678253]
本稿では,Large Language Models (LLMs) における言語間関係の弱点を効率的に同定するための新しい手法を提案する。
この手法を用いて16言語で6,000以上のバイリンガルペアからなる新しいデータセットを構築し、最先端のモデルにおいても弱点を明らかにする効果を実証した。
さらに,言語的類似性と言語間の弱点との関係について検討し,言語的関連言語が類似した演奏パターンを共有することを明らかにした。
論文 参考訳(メタデータ) (2025-05-24T12:31:27Z) - Enhancing Multilingual ASR for Unseen Languages via Language Embedding Modeling [50.62091603179394]
最も先進的なASRモデルの1つであるWhisperは99の言語を効果的に扱う。
しかし、ウィスパーは未確認の言語と戦っているが、それらは事前訓練には含まれていない。
本研究では,これらの関係を利用して未知言語上でのASR性能を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-12-21T04:05:43Z) - Evaluating Zero-Shot Multilingual Aspect-Based Sentiment Analysis with Large Language Models [0.9832963381777073]
我々は,大規模言語モデル(LLM)をゼロショット条件下で評価し,ABSA課題に取り組む可能性を探る。
本稿では,バニラゼロショット,チェーン・オブ・シント(CoT),自己改善,自己議論,自己整合性など,様々な促進策について検討する。
その結果、LLMは多言語ABSAを扱う上での有望性を示すが、一般的には細調整されたタスク固有モデルに欠けることがわかった。
論文 参考訳(メタデータ) (2024-12-17T05:48:48Z) - Towards Quantifying and Reducing Language Mismatch Effects in Cross-Lingual Speech Anti-Spoofing [21.214330523348046]
既存のアンチスプーフィングデータセットは主に英語で書かれている。
多言語データセットの取得の高コストは、トレーニング言語に依存しないモデルを妨げる。
我々は、TS(ACCENT)によるアクセントベースのデータ拡張という革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-12T18:18:22Z) - Unlikelihood Tuning on Negative Samples Amazingly Improves Zero-Shot
Translation [79.96416609433724]
Zero-shot Translation (ZST)は、トレーニングデータにおいて、目に見えない言語ペア間の翻訳を目的としている。
推論中にゼロショット言語マッピングをガイドする一般的な方法は、ソースとターゲット言語IDを意図的に挿入することである。
近年の研究では、言語IDが時折ZSTタスクのナビゲートに失敗し、ターゲット外問題に悩まされることが示されている。
論文 参考訳(メタデータ) (2023-09-28T17:02:36Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - Language Models are Few-shot Multilingual Learners [66.11011385895195]
我々は、非英語言語における多言語分類を行う際に、GPTモデルとT5モデルの多言語的スキルを評価する。
文脈としての英語の例を見ると、事前学習された言語モデルは、英語のテストサンプルだけでなく、英語以外のサンプルも予測できることが示されている。
論文 参考訳(メタデータ) (2021-09-16T03:08:22Z) - Few-Shot Cross-Lingual Stance Detection with Sentiment-Based
Pre-Training [32.800766653254634]
本研究は,現在までの言語間スタンス検出に関する最も包括的な研究である。
6つの言語ファミリーの12言語で15の多様なデータセットを使用します。
実験では,新しいラベルエンコーダの追加を提案し,パターン探索トレーニングを構築した。
論文 参考訳(メタデータ) (2021-09-13T15:20:06Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。