論文の概要: Hybrid Extractive Abstractive Summarization for Multilingual Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2506.06929v1
- Date: Sat, 07 Jun 2025 21:44:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.568751
- Title: Hybrid Extractive Abstractive Summarization for Multilingual Sentiment Analysis
- Title(参考訳): 多言語感性分析のためのハイブリッド抽出抽象要約法
- Authors: Mikhail Krasitskii, Grigori Sidorov, Olga Kolesnikova, Liliana Chanona Hernandez, Alexander Gelbukh,
- Abstract要約: このモデルは、TF-IDFに基づく抽出とXLM-R抽象モジュールを統合し、動的しきい値設定と文化的適応によって強化される。
10言語にわたる実験では、ベースラインよりも大幅に改善され、英語では0.90の精度、低リソース言語では0.84の精度が達成された。
- 参考スコア(独自算出の注目度): 42.90274643419224
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a hybrid approach for multilingual sentiment analysis that combines extractive and abstractive summarization to address the limitations of standalone methods. The model integrates TF-IDF-based extraction with a fine-tuned XLM-R abstractive module, enhanced by dynamic thresholding and cultural adaptation. Experiments across 10 languages show significant improvements over baselines, achieving 0.90 accuracy for English and 0.84 for low-resource languages. The approach also demonstrates 22% greater computational efficiency than traditional methods. Practical applications include real-time brand monitoring and cross-cultural discourse analysis. Future work will focus on optimization for low-resource languages via 8-bit quantization.
- Abstract(参考訳): 本稿では,抽出的および抽象的要約を組み合わせた多言語感情分析のためのハイブリッド手法を提案する。
このモデルは、TF-IDFに基づく抽出とXLM-R抽象モジュールを統合し、動的しきい値設定と文化的適応によって強化される。
10言語にわたる実験では、ベースラインよりも大幅に改善され、英語では0.90の精度、低リソース言語では0.84の精度が達成された。
このアプローチはまた、従来の方法よりも22%高い計算効率を示す。
実践的応用としては、リアルタイムブランド監視と異文化間談話分析がある。
今後は8ビット量子化による低リソース言語の最適化に注力する予定である。
関連論文リスト
- Duluth at SemEval-2025 Task 7: TF-IDF with Optimized Vector Dimensions for Multilingual Fact-Checked Claim Retrieval [0.0]
本稿では,SemEval-2025 Task 7 on Multilingual and Crosslingual Fact-Checked Claim Retrievalを提案する。
我々は,ベクトル次元とトークン化戦略を実験するTF-IDFベースの検索システムを実装した。
論文 参考訳(メタデータ) (2025-05-19T01:58:22Z) - Scaling Laws for Multilingual Language Models [41.6318470003173]
多言語スケーリングの研究における主要な課題は、言語間移動による個々の言語性能の分析が困難であることである。
本稿では,各言語群に対するクロスエントロピー損失が,それぞれのサンプリング比でのみ決定されるという仮説を導入し,検証する。
性能とデータセットサイズ,モデルサイズ,サンプリング比率を関連づける,ゆるい関係を導出する。
論文 参考訳(メタデータ) (2024-10-15T20:29:38Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning: Insights and Observations [59.056367787688146]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
我々は10の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
翻訳を利用して、10個の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - Gradient Vaccine: Investigating and Improving Multi-task Optimization in
Massively Multilingual Models [63.92643612630657]
本稿では、損失関数幾何学のレンズを通して多言語最適化のブラックボックスを覗き込もうとする。
最適化軌道に沿って測定された勾配類似性は重要な信号であり、言語近接とよく相関している。
そこで我々はGradient Vaccineというシンプルでスケーラブルな最適化手法を考案した。
論文 参考訳(メタデータ) (2020-10-12T17:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。