論文の概要: Cross-lingual Few-shot Learning for Persian Sentiment Analysis with Incremental Adaptation
- arxiv url: http://arxiv.org/abs/2507.11634v1
- Date: Tue, 15 Jul 2025 18:13:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.102456
- Title: Cross-lingual Few-shot Learning for Persian Sentiment Analysis with Incremental Adaptation
- Title(参考訳): インクリメンタル適応を用いたペルシャ感性分析のための言語間ファウショット学習
- Authors: Farideh Majidi, Ziaeddin Beheshtifard,
- Abstract要約: 本研究ではペルシャ語における少数ショット学習と漸進学習を用いた言語間感情分析について検討する。
3つの事前訓練された多言語モデルが採用され、少数ショットと漸進的な学習アプローチを用いて微調整された。
実験の結果,mDeBERTaとXLM-RoBERTaは高い性能を示し,ペルシャ感情分析の精度は96%に達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research examines cross-lingual sentiment analysis using few-shot learning and incremental learning methods in Persian. The main objective is to develop a model capable of performing sentiment analysis in Persian using limited data, while getting prior knowledge from high-resource languages. To achieve this, three pre-trained multilingual models (XLM-RoBERTa, mDeBERTa, and DistilBERT) were employed, which were fine-tuned using few-shot and incremental learning approaches on small samples of Persian data from diverse sources, including X, Instagram, Digikala, Snappfood, and Taaghche. This variety enabled the models to learn from a broad range of contexts. Experimental results show that the mDeBERTa and XLM-RoBERTa achieved high performances, reaching 96% accuracy on Persian sentiment analysis. These findings highlight the effectiveness of combining few-shot learning and incremental learning with multilingual pre-trained models.
- Abstract(参考訳): 本研究ではペルシャ語における少数ショット学習と漸進学習を用いた言語間感情分析について検討する。
主な目的は、高リソース言語から事前の知識を得ながら、限られたデータを用いてペルシア語で感情分析を行うことのできるモデルを開発することである。
これを実現するために、X、Instagram、Digikala、Snappfood、Taaghcheといったさまざまなソースからのペルシャデータの小さなサンプルに対して、少数ショットとインクリメンタルな学習アプローチを使用して微調整された3つの事前訓練された多言語モデル(XLM-RoBERTa、mDeBERTa、DistilBERT)が採用された。
この多様性により、モデルは幅広い文脈から学べるようになった。
実験の結果,mDeBERTaとXLM-RoBERTaは高い性能を示し,ペルシャ感情分析の精度は96%に達した。
これらの知見は,多言語事前学習モデルと少数ショット学習と漸進学習を組み合わせることの有効性を浮き彫りにした。
関連論文リスト
- mFollowIR: a Multilingual Benchmark for Instruction Following in Retrieval [61.17793165194077]
本稿では,検索モデルにおける命令追従能力のベンチマークであるmFollowIRを紹介する。
本稿では,多言語 (XX-XX) と多言語 (En-XX) のパフォーマンスについて述べる。
英語をベースとした学習者による多言語間性能は高いが,多言語設定では顕著な性能低下がみられた。
論文 参考訳(メタデータ) (2025-01-31T16:24:46Z) - On the Applicability of Zero-Shot Cross-Lingual Transfer Learning for Sentiment Classification in Distant Language Pairs [0.0]
本研究では,XLM-R事前学習モデルを用いて,英語から日本語,インドネシア語への言語間移動学習の適用性を検討した。
本モデルでは,日本語とインドネシア語のデータセットを対象言語を用いて訓練することなく,日本語とインドネシア語のデータセットに比較して最適な結果が得られる。
論文 参考訳(メタデータ) (2024-12-24T05:50:18Z) - Extending LLMs to New Languages: A Case Study of Llama and Persian Adaptation [36.92567530333872]
我々は,大言語モデル(LLM)に新しい言語,すなわちペルシア語を追加することを研究する。
我々は単言語ペルシャ語のデータの事前学習を含む多段階的アプローチを採用する。
生成タスクと分類タスクにおいて,各段階でのモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-12-17T23:18:06Z) - Multilingual Few-Shot Learning via Language Model Retrieval [18.465566186549072]
トランスフォーマーベースの言語モデルは、数ショットのインコンテキスト学習において顕著な成功を収めた。
本研究は,意味論的に類似したショットサンプルを検索し,コンテキストとして利用する研究である。
提案手法を,意図検出,質問分類,感情分析,話題分類に関連する5つの自然言語理解データセット上で評価した。
論文 参考訳(メタデータ) (2023-06-19T14:27:21Z) - Multi-task Learning for Cross-Lingual Sentiment Analysis [0.0]
この研究は、クロアチアのニュース記事に肯定的、否定的、中立的な感情をスロベニアのデータセットを使って分類することを目的としている。
このシステムは、英語、スロベニア語、クロアチア語という3つの言語で訓練された、トリリンガルなBERTベースのモデルに基づいている。
論文 参考訳(メタデータ) (2022-12-14T11:29:03Z) - Analyzing the Mono- and Cross-Lingual Pretraining Dynamics of
Multilingual Language Models [73.11488464916668]
本研究では,多言語事前学習プロセスのダイナミクスについて検討する。
我々は,XLM-Rプレトレーニング全体から抽出したチェックポイントを,一連の言語的タスクを用いて探索する。
分析の結果,より複雑なものよりも低レベルな言語スキルが得られ,早期に高い言語性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-05-24T03:35:00Z) - Probing Structured Pruning on Multilingual Pre-trained Models: Settings,
Algorithms, and Efficiency [62.0887259003594]
本研究では,多言語事前学習言語モデルにおける構造化プルーニングの3つの側面について検討する。
9つの下流タスクの実験は、いくつかの反直観的な現象を示している。
モデルを一度トレーニングし、推論時に異なるモデルサイズに適応できるシンプルなアプローチであるDynamic Sparsificationを紹介します。
論文 参考訳(メタデータ) (2022-04-06T06:29:52Z) - Distilling the Knowledge of Romanian BERTs Using Multiple Teachers [0.47169950535905025]
ルーマニア語で蒸留されたBERTモデルの3つの軽量かつ高速なバージョンを紹介する。
我々の知る限り、これはルーマニアの蒸留されたBERTモデルを作成する最初の試みである。
論文 参考訳(メタデータ) (2021-12-23T15:37:58Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - AmericasNLI: Evaluating Zero-shot Natural Language Understanding of
Pretrained Multilingual Models in Truly Low-resource Languages [75.08199398141744]
我々は、XNLI(Conneau et al)の拡張である AmericasNLI を提示する。
は、アメリカ大陸の10の原住民の言語である。
XLM-Rで実験を行い、複数のゼロショットおよび翻訳ベースのアプローチをテストします。
XLM-Rのゼロショット性能は全10言語で低調であり、平均性能は38.62%である。
論文 参考訳(メタデータ) (2021-04-18T05:32:28Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。