論文の概要: An evaluation of LLMs and Google Translate for translation of selected Indian languages via sentiment and semantic analyses
- arxiv url: http://arxiv.org/abs/2503.21393v1
- Date: Thu, 27 Mar 2025 11:35:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:54:41.608683
- Title: An evaluation of LLMs and Google Translate for translation of selected Indian languages via sentiment and semantic analyses
- Title(参考訳): 感情分析と意味分析によるインド言語翻訳のためのLLMとGoogle翻訳の評価
- Authors: Rohitash Chandra, Aryan Chaudhary, Yeshwanth Rayavarapu,
- Abstract要約: 大規模言語モデル(LLM)は低リソース言語を含む言語翻訳において顕著である。
本研究では,サンスクリット語,テルグ語,ヒンディー語を含むインドの言語における選択されたLLMの意味的・感情的分析を用いた。
- 参考スコア(独自算出の注目度): 0.17999333451993949
- License:
- Abstract: Large Language models (LLMs) have been prominent for language translation, including low-resource languages. There has been limited study about the assessment of the quality of translations generated by LLMs, including Gemini, GPT and Google Translate. In this study, we address this limitation by using semantic and sentiment analysis of selected LLMs for Indian languages, including Sanskrit, Telugu and Hindi. We select prominent texts that have been well translated by experts and use LLMs to generate their translations to English, and then we provide a comparison with selected expert (human) translations. Our findings suggest that while LLMs have made significant progress in translation accuracy, challenges remain in preserving sentiment and semantic integrity, especially in figurative and philosophical contexts. The sentiment analysis revealed that GPT-4o and GPT-3.5 are better at preserving the sentiments for the Bhagavad Gita (Sanskrit-English) translations when compared to Google Translate. We observed a similar trend for the case of Tamas (Hindi-English) and Maha P (Telugu-English) translations. GPT-4o performs similarly to GPT-3.5 in the translation in terms of sentiments for the three languages. We found that LLMs are generally better at translation for capturing sentiments when compared to Google Translate.
- Abstract(参考訳): 大規模言語モデル(LLM)は低リソース言語を含む言語翻訳において顕著である。
Gemini、GPT、Google Translateなど、LLMが生成する翻訳品質の評価については、限定的な研究がなされている。
本研究では,サンスクリット語,テルグ語,ヒンディー語を含むインドの言語における選択されたLLMの意味的・感情的分析を用いて,この制限に対処する。
我々は、専門家によってよく翻訳された顕著なテキストを選択し、LLMを使用して英語への翻訳を生成し、選択された専門家(人間)翻訳と比較する。
以上の結果から, LLMは翻訳精度を著しく向上させたが, 感傷的・哲学的文脈において, 情緒的・意味的整合性を維持する上での課題が残っていることが示唆された。
感情分析の結果、GPT-4oとGPT-3.5は、Google Translateと比較して、Bhagavad Gita(サンスクリット英語)翻訳の感情を保存するのに優れていることがわかった。
タマス語(ヒンディー語)やマハ語(テルグ語)の翻訳についても同様の傾向が見られた。
GPT-4o は3つの言語に対する感情の点で GPT-3.5 と同様に機能する。
LLMは一般的に、Google Translateと比較して感情を捉えるのに優れていることがわかりました。
関連論文リスト
- Benchmarking GPT-4 against Human Translators: A Comprehensive Evaluation Across Languages, Domains, and Expertise Levels [20.05501751993599]
GPT-4は、全エラーの点において、中級のトランスレータに匹敵する性能を達成する。
従来のニューラル機械翻訳システムとは異なり、GPT-4は全ての評価された言語対に対して一貫した翻訳品質を維持している。
論文 参考訳(メタデータ) (2024-11-21T01:12:46Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - Evaluation of Google Translate for Mandarin Chinese translation using sentiment and semantic analysis [1.3999481573773074]
大規模言語モデル(LLM)を用いた機械翻訳は,世界規模で大きな影響を与えている。
中国語は、中国の政府やメディアによる通信に用いられる公用語である。
本研究では、感情分析と意味分析を用いて、人間の専門家によるGoogle翻訳の翻訳品質の自動評価を行う。
論文 参考訳(メタデータ) (2024-09-08T04:03:55Z) - GPT-4 vs. Human Translators: A Comprehensive Evaluation of Translation Quality Across Languages, Domains, and Expertise Levels [18.835573312027265]
本研究では,人間の翻訳者に対するLarge Language Models(LLMs)の翻訳品質を包括的に評価する。
また, GPT-4は, 中高の翻訳者よりも遅れが小さいため, 中高の翻訳者に対して同等に機能することがわかった。
論文 参考訳(メタデータ) (2024-07-04T05:58:04Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [52.18246881218829]
本稿では,大言語モデル(LLM)をベースとした多エージェントフレームワークを,TransAgentsという企業として実装した。
本システムの有効性を評価するため,モノリンガル・ヒューマン・プライス(MHP)とバイリンガル・LLM・プライス(BLP)の2つの革新的な評価戦略を提案する。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Do GPTs Produce Less Literal Translations? [20.095646048167612]
大規模言語モデル(LLM)は多くの自然言語生成や理解タスクに対処できる汎用言語モデルとして登場した。
GPTからの英語(E-X)からの翻訳はリテラルが低い傾向にあり、機械翻訳の品質指標に類似またはより良いスコアが示されることがわかりました。
論文 参考訳(メタデータ) (2023-05-26T10:38:31Z) - Eliciting the Translation Ability of Large Language Models via Multilingual Finetuning with Translation Instructions [68.01449013641532]
大規模事前学習言語モデル(LLM)は多言語翻訳において強力な能力を示している。
本稿では,多言語事前学習言語モデルであるXGLM-7Bを微調整して,多言語翻訳を行う方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T12:00:24Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z) - Is ChatGPT A Good Translator? Yes With GPT-4 As The Engine [97.8609714773255]
機械翻訳におけるChatGPTの評価には,翻訳プロンプト,多言語翻訳,翻訳堅牢性などが含まれる。
ChatGPTは商用翻訳製品と競合するが、低リソースや遠方の言語では遅れている。
GPT-4エンジンの打ち上げにより、ChatGPTの翻訳性能は大幅に向上した。
論文 参考訳(メタデータ) (2023-01-20T08:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。