論文の概要: An evaluation of LLMs and Google Translate for translation of selected Indian languages via sentiment and semantic analyses
- arxiv url: http://arxiv.org/abs/2503.21393v3
- Date: Tue, 01 Jul 2025 08:05:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-02 17:57:15.546529
- Title: An evaluation of LLMs and Google Translate for translation of selected Indian languages via sentiment and semantic analyses
- Title(参考訳): 感情分析と意味分析によるインド言語翻訳のためのLLMとGoogle翻訳の評価
- Authors: Rohitash Chandra, Aryan Chaudhari, Yeshwanth Rayavarapu,
- Abstract要約: 大規模言語モデル(LLM)は低リソース言語を含む言語翻訳において顕著である。
本研究では,サンスクリット語,テルグ語,ヒンディー語を含むインドの言語における選択されたLLMの意味的・感情的分析を用いた。
我々は、専門家によってよく翻訳された著名なテキスト(Bhagavad Gita、Tamas、Maha Prasthanam)を選択し、LLMを使って英語への翻訳を生成する。
- 参考スコア(独自算出の注目度): 0.17999333451993949
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language models (LLMs) have been prominent for language translation, including low-resource languages. There has been limited study on the assessment of the quality of translations generated by LLMs, including Gemini, GPT, and Google Translate. This study addresses this limitation by using semantic and sentiment analysis of selected LLMs for Indian languages, including Sanskrit, Telugu and Hindi. We select prominent texts (Bhagavad Gita, Tamas and Maha Prasthanam ) that have been well translated by experts and use LLMs to generate their translations into English, and provide a comparison with selected expert (human) translations. Our investigation revealed that while LLMs have made significant progress in translation accuracy, challenges remain in preserving sentiment and semantic integrity, especially in metaphorical and philosophical contexts for texts such as the Bhagavad Gita. The sentiment analysis revealed that GPT models are better at preserving the sentiment polarity for the given texts when compared to human (expert) translation. The results revealed that GPT models are generally better at maintaining the sentiment and semantics when compared to Google Translate. This study could help in the development of accurate and culturally sensitive translation systems for large language models.
- Abstract(参考訳): 大規模言語モデル(LLM)は低リソース言語を含む言語翻訳において顕著である。
Gemini、GPT、Google Translateなど、LLMが生成する翻訳の品質の評価については、限定的な研究がなされている。
本研究では,サンスクリット語,テルグ語,ヒンディー語を含むインドの言語におけるLLMの意味的・感情的分析を用いて,この制限に対処する。
我々は、専門家によってよく翻訳された著名なテキスト(Bhagavad Gita、Tamas、Maha Prasthanam)を選択し、LLMを使って英語翻訳を生成し、選択された専門家(人間)翻訳と比較する。
我々の調査によると、LLMは翻訳精度を著しく向上させたが、特にBhagavad Gitaのような比喩的・哲学的文脈において、感情と意味的整合性を維持する上での課題は残る。
感情分析の結果、GPTモデルは人間の(専門的な)翻訳と比較して、与えられたテキストの感情極性を維持するのに優れていることがわかった。
その結果,GPTモデルはGoogle Translateと比較して感情や意味の維持に優れていた。
この研究は、大規模言語モデルのための正確で文化的に敏感な翻訳システムの開発に役立つかもしれない。
関連論文リスト
- Testing LLMs' Capabilities in Annotating Translations Based on an Error Typology Designed for LSP Translation: First Experiments with ChatGPT [3.9325957466009203]
本研究では,誤り型に基づくMT出力のアノテートにおける大規模言語モデル(LLM)の機能について検討する。
我々は、ChatGPTアノテーションとDeepLとChatGPT自体による翻訳の人間の専門家による評価を比較した。
論文 参考訳(メタデータ) (2025-04-21T12:21:37Z) - Trans-Zero: Self-Play Incentivizes Large Language Models for Multilingual Translation Without Parallel Data [64.4458540273004]
言語モデル(LLM)の単言語データと本質的な多言語知識のみを活用するセルフプレイフレームワークを提案する。
実験により、このアプローチは大規模並列データに基づいて訓練されたモデルの性能と一致するだけでなく、非英語翻訳の方向でも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-20T16:20:30Z) - Regional Tiny Stories: Using Small Models to Compare Language Learning and Tokenizer Performance [1.1784026260358966]
我々はヒンディー語、マラティー語、ベンガル語に着目し、地域言語処理のためのSLMを評価し、言語的複雑さを理解する。
分析の結果,言語固有のトークンーザはインドの言語に対して汎用的なトークンーよりも優れていた。
これらの知見は、SLMの未保存言語への実践的応用と、我々のニューラルネットワーク開発に関する理論的理解の両方を前進させる。
論文 参考訳(メタデータ) (2025-04-07T10:33:14Z) - Lost in Literalism: How Supervised Training Shapes Translationese in LLMs [51.04435855143767]
大規模言語モデル(LLM)は機械翻訳において顕著な成功を収めた。
しかし、過度にリテラルと不自然な翻訳を特徴とする翻訳は、依然として永続的な課題である。
我々は、黄金の基準を磨き、不自然なトレーニングインスタンスをフィルタリングするなど、これらのバイアスを軽減する方法を導入する。
論文 参考訳(メタデータ) (2025-03-06T12:14:45Z) - Science Across Languages: Assessing LLM Multilingual Translation of Scientific Papers [24.150250149027883]
我々は、科学論文の翻訳に大規模言語モデル(LLM)を活用している。
我々は複数の科学分野の論文を28の言語に翻訳する。
ベンチマークの結果,平均性能は95.9%であった。
論文 参考訳(メタデータ) (2025-02-25T06:08:48Z) - Benchmarking GPT-4 against Human Translators: A Comprehensive Evaluation Across Languages, Domains, and Expertise Levels [20.05501751993599]
GPT-4は、全エラーの点において、中級のトランスレータに匹敵する性能を達成する。
従来のニューラル機械翻訳システムとは異なり、GPT-4は全ての評価された言語対に対して一貫した翻訳品質を維持している。
論文 参考訳(メタデータ) (2024-11-21T01:12:46Z) - A Multilingual Sentiment Lexicon for Low-Resource Language Translation using Large Languages Models and Explainable AI [0.0]
南アフリカとDRCは、ズールー語、セペディ語、アフリカーンス語、フランス語、英語、ツィルバ語などの言語と共に複雑な言語景観を呈している。
この研究はフランス語とツィルバ語用に設計された多言語辞書を開発し、英語、アフリカーンス語、セペディ語、ズールー語への翻訳を含むように拡張された。
総合的なテストコーパスは、感情を予測するためにトレーニングされた機械学習モデルを使用して、翻訳と感情分析タスクをサポートするために作成される。
論文 参考訳(メタデータ) (2024-11-06T23:41:18Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - Evaluation of Google Translate for Mandarin Chinese translation using sentiment and semantic analysis [1.3999481573773074]
大規模言語モデル(LLM)を用いた機械翻訳は,世界規模で大きな影響を与えている。
中国語は、中国の政府やメディアによる通信に用いられる公用語である。
本研究では、感情分析と意味分析を用いて、人間の専門家によるGoogle翻訳の翻訳品質の自動評価を行う。
論文 参考訳(メタデータ) (2024-09-08T04:03:55Z) - GPT-4 vs. Human Translators: A Comprehensive Evaluation of Translation Quality Across Languages, Domains, and Expertise Levels [18.835573312027265]
本研究では,人間の翻訳者に対するLarge Language Models(LLMs)の翻訳品質を包括的に評価する。
また, GPT-4は, 中高の翻訳者よりも遅れが小さいため, 中高の翻訳者に対して同等に機能することがわかった。
論文 参考訳(メタデータ) (2024-07-04T05:58:04Z) - (Perhaps) Beyond Human Translation: Harnessing Multi-Agent Collaboration for Translating Ultra-Long Literary Texts [56.7988577327046]
翻訳企業の役割と協調の実践をシミュレートする,新しいマルチエージェントフレームワークであるTransAgentsを紹介する。
本研究は,翻訳品質の向上,特にテキストの長文化におけるマルチエージェント協調の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-05-20T05:55:08Z) - Building Accurate Translation-Tailored LLMs with Language Aware Instruction Tuning [57.323716555996114]
オフターゲット翻訳は、特に低リソース言語では未解決の問題である。
最近の研究は、翻訳命令の機能を強調するために高度なプロンプト戦略を設計するか、LLMの文脈内学習能力を活用している。
本研究では,LLMの命令追従能力(特に翻訳方向)を向上させるために,2段階の微調整アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-03-21T13:47:40Z) - Do GPTs Produce Less Literal Translations? [20.095646048167612]
大規模言語モデル(LLM)は多くの自然言語生成や理解タスクに対処できる汎用言語モデルとして登場した。
GPTからの英語(E-X)からの翻訳はリテラルが低い傾向にあり、機械翻訳の品質指標に類似またはより良いスコアが示されることがわかりました。
論文 参考訳(メタデータ) (2023-05-26T10:38:31Z) - Eliciting the Translation Ability of Large Language Models via Multilingual Finetuning with Translation Instructions [68.01449013641532]
大規模事前学習言語モデル(LLM)は多言語翻訳において強力な能力を示している。
本稿では,多言語事前学習言語モデルであるXGLM-7Bを微調整して,多言語翻訳を行う方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T12:00:24Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z) - Is ChatGPT A Good Translator? Yes With GPT-4 As The Engine [97.8609714773255]
機械翻訳におけるChatGPTの評価には,翻訳プロンプト,多言語翻訳,翻訳堅牢性などが含まれる。
ChatGPTは商用翻訳製品と競合するが、低リソースや遠方の言語では遅れている。
GPT-4エンジンの打ち上げにより、ChatGPTの翻訳性能は大幅に向上した。
論文 参考訳(メタデータ) (2023-01-20T08:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。