論文の概要: Enhancing Multilingual Sentiment Analysis with Explainability for Sinhala, English, and Code-Mixed Content
- arxiv url: http://arxiv.org/abs/2504.13545v1
- Date: Fri, 18 Apr 2025 08:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 16:46:14.628078
- Title: Enhancing Multilingual Sentiment Analysis with Explainability for Sinhala, English, and Code-Mixed Content
- Title(参考訳): Sinhala, English, and Code-Mixed Contentの説明可能性を考慮した多言語感性分析の強化
- Authors: Azmarah Rizvi, Navojith Thamindu, A. M. N. H. Adhikari, W. P. U. Senevirathna, Dharshana Kasthurirathna, Lakmini Abeywardhana,
- Abstract要約: 既存のモデルは、Sinhalaのような低リソース言語と競合し、実用的な使用には解釈性がない。
本研究は,多言語機能と説明可能な出力を両立させるハイブリッドアスペクトベース感情分析フレームワークを開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentiment analysis is crucial for brand reputation management in the banking sector, where customer feedback spans English, Sinhala, Singlish, and code-mixed text. Existing models struggle with low-resource languages like Sinhala and lack interpretability for practical use. This research develops a hybrid aspect-based sentiment analysis framework that enhances multilingual capabilities with explainable outputs. Using cleaned banking customer reviews, we fine-tune XLM-RoBERTa for Sinhala and code-mixed text, integrate domain-specific lexicon correction, and employ BERT-base-uncased for English. The system classifies sentiment (positive, neutral, negative) with confidence scores, while SHAP and LIME improve interpretability by providing real-time sentiment explanations. Experimental results show that our approaches outperform traditional transformer-based classifiers, achieving 92.3 percent accuracy and an F1-score of 0.89 in English and 88.4 percent in Sinhala and code-mixed content. An explainability analysis reveals key sentiment drivers, improving trust and transparency. A user-friendly interface delivers aspect-wise sentiment insights, ensuring accessibility for businesses. This research contributes to robust, transparent sentiment analysis for financial applications by bridging gaps in multilingual, low-resource NLP and explainability.
- Abstract(参考訳): センティメント分析は、顧客のフィードバックが英語、シンハラ語、シングリッシュ語、およびコードミキシングテキストにまたがる銀行セクターにおけるブランド評価管理に不可欠である。
既存のモデルは、Sinhalaのような低リソース言語と競合し、実用的な使用には解釈性がない。
本研究は,多言語機能と説明可能な出力を両立させるハイブリッドアスペクトベース感情分析フレームワークを開発する。
クリーンな銀行顧客レビューを用いて、シンハラとコードミキシングテキストにXLM-RoBERTaを微調整し、ドメイン固有の語彙補正を統合し、英語にはBERT-base-uncasedを使用します。
システムでは、感情(肯定的、中立的、否定的)を信頼スコアで分類し、SHAPとLIMEはリアルタイムの感情説明を提供することで解釈性を改善する。
実験の結果,従来の変圧器を用いた分類では92.3%,英語では0.89,シンハラ語では88.4%の精度でF1スコアを達成している。
説明可能性分析は、重要な感情要因、信頼と透明性を改善する。
ユーザフレンドリーなインターフェースは、ビジネスのアクセシビリティを確保するために、アスペクトワイドな感情洞察を提供する。
本研究は,多言語,低リソースNLPにおけるギャップを埋めることによる財務アプリケーションに対する堅牢で透明な感情分析と説明可能性に寄与する。
関連論文リスト
- Keyword Extraction, and Aspect Classification in Sinhala, English, and Code-Mixed Content [0.0]
本研究では,キーワード抽出,コンテンツフィルタリング,アスペクトベースの銀行コンテンツ分類の改善を目的としたハイブリッドNLP手法を提案する。
このフレームワークは、コード混在および低リソースのバンキング環境におけるブランド評価監視のための正確でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-14T20:01:34Z) - Do LLMs Understand Your Translations? Evaluating Paragraph-level MT with Question Answering [68.3400058037817]
本稿では,TREQA(Translation Evaluation via Question-Answering)について紹介する。
我々は,TREQAが最先端のニューラルネットワークとLLMベースのメトリクスより優れていることを示し,代用段落レベルの翻訳をランク付けする。
論文 参考訳(メタデータ) (2025-04-10T09:24:54Z) - Visualizing Uncertainty in Translation Tasks: An Evaluation of LLM Performance and Confidence Metrics [0.20971479389679337]
大規模言語モデル(LLM)は機械翻訳にますます利用されているが、その予測は解釈可能性やユーザ信頼を妨げる不確実性を示すことが多い。
本稿では,(1)モデルの信頼性に関するトークンレベルの洞察をユーザに提供すること,(2)翻訳の不確かさを定量化し表現するためのWebベースの可視化ツールを開発すること,の2つの目的に対処する。
論文 参考訳(メタデータ) (2025-01-26T17:14:51Z) - A Multilingual Sentiment Lexicon for Low-Resource Language Translation using Large Languages Models and Explainable AI [0.0]
南アフリカとDRCは、ズールー語、セペディ語、アフリカーンス語、フランス語、英語、ツィルバ語などの言語と共に複雑な言語景観を呈している。
この研究はフランス語とツィルバ語用に設計された多言語辞書を開発し、英語、アフリカーンス語、セペディ語、ズールー語への翻訳を含むように拡張された。
総合的なテストコーパスは、感情を予測するためにトレーニングされた機械学習モデルを使用して、翻訳と感情分析タスクをサポートするために作成される。
論文 参考訳(メタデータ) (2024-11-06T23:41:18Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - A hybrid transformer and attention based recurrent neural network for robust and interpretable sentiment analysis of tweets [0.3495246564946556]
既存のモデルは言語的多様性、一般化可能性、説明可能性に関する課題に直面している。
本稿では,トランスフォーマーアーキテクチャ,アテンション機構,BiLSTMネットワークを統合したハイブリッドフレームワークTRABSAを提案する。
感情分析ベンチマークのギャップを埋め、最先端の精度を確保します。
論文 参考訳(メタデータ) (2024-03-30T09:20:43Z) - Arabic Sentiment Analysis with Noisy Deep Explainable Model [48.22321420680046]
本稿では,アラビア語の感情分類フレームワークを提案する。
提案フレームワークは,局所的な代理説明可能なモデルをトレーニングすることで,特定の予測を説明することができる。
アラビアサデータセットの公開ベンチマーク実験を行った。
論文 参考訳(メタデータ) (2023-09-24T19:26:53Z) - Syntactic Knowledge via Graph Attention with BERT in Machine Translation [0.0]
本稿では,機械翻訳(MT)シナリオにおけるBERT(SGB)を用いたグラフアテンションによる構文知識を提案する。
本実験では,ゴールド構文アノテーション文と品質推定(QE)モデルを用いて翻訳品質改善の解釈可能性を得る。
実験の結果,提案するSGBエンジンはBLEUスコアを犠牲にすることなく,MTタスクの翻訳品質を向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-22T18:56:14Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - NLP-CIC at SemEval-2020 Task 9: Analysing sentiment in code-switching
language using a simple deep-learning classifier [63.137661897716555]
コードスイッチングは、2つ以上の言語が同じメッセージで使用される現象である。
標準的な畳み込みニューラルネットワークモデルを用いて、スペイン語と英語の混在するツイートの感情を予測する。
論文 参考訳(メタデータ) (2020-09-07T19:57:09Z) - Self-Attention with Cross-Lingual Position Representation [112.05807284056337]
位置符号化(PE)は、自然言語処理タスクの単語順序情報を保存し、入力シーケンスの固定位置インデックスを生成する。
語順が異なるため、言語間の位置関係をモデル化することは、SANがこの問題に取り組むのに役立つ。
我々は、入力文のバイリンガル認識潜在構造をモデル化するために、言語間位置表現によるSANを拡大する。
論文 参考訳(メタデータ) (2020-04-28T05:23:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。