論文の概要: Can Peter Pan Survive MT? A Stylometric Study of LLMs, NMTs, and HTs in Children's Literature Translation
- arxiv url: http://arxiv.org/abs/2506.22038v1
- Date: Fri, 27 Jun 2025 09:34:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.150391
- Title: Can Peter Pan Survive MT? A Stylometric Study of LLMs, NMTs, and HTs in Children's Literature Translation
- Title(参考訳): Peter Pan Survive MT は可能か? 児童文学翻訳における LLMs, NMTs, HTs のスティロメトリー的研究
- Authors: Delu Kong, Lieve Macken,
- Abstract要約: 7つのヒト翻訳(HT)、7つの大言語モデル翻訳(LLM)、7つのニューラルマシン翻訳出力(NMT)からなるピーターパンコーパスを構築する。
この分析には、語彙的、構文的可読性、n-gram特徴を含む一般的な特徴セットと、反復、リズム、翻訳性、雑多なレベルをキャプチャーする創造的テキスト翻訳(CTT特化)機能セットがあり、合計447の言語的特徴をもたらす。
その結果,HTsとMTsは結合語分布と1-word-gram-Yi比に有意な差があることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study focuses on evaluating the performance of machine translations (MTs) compared to human translations (HTs) in English-to-Chinese children's literature translation (CLT) from a stylometric perspective. The research constructs a Peter Pan corpus, comprising 21 translations: 7 human translations (HTs), 7 large language model translations (LLMs), and 7 neural machine translation outputs (NMTs). The analysis employs a generic feature set (including lexical, syntactic, readability, and n-gram features) and a creative text translation (CTT-specific) feature set, which captures repetition, rhythm, translatability, and miscellaneous levels, yielding 447 linguistic features in total. Using classification and clustering techniques in machine learning, we conduct a stylometric analysis of these translations. Results reveal that in generic features, HTs and MTs exhibit significant differences in conjunction word distributions and the ratio of 1-word-gram-YiYang, while NMTs and LLMs show significant variation in descriptive words usage and adverb ratios. Regarding CTT-specific features, LLMs outperform NMTs in distribution, aligning more closely with HTs in stylistic characteristics, demonstrating the potential of LLMs in CLT.
- Abstract(参考訳): 本研究は,英語と中国語の児童文学翻訳(CLT)における機械翻訳(MT)の性能と人文翻訳(HT)を比較した。
研究はピーターパンコーパスを構築し、7つのヒト翻訳(HT)、7つの大きな言語モデル翻訳(LLM)、7つのニューラルマシン翻訳出力(NMT)からなる。
この分析には、語彙、構文、可読性、n-gram機能を含む一般的な特徴セットと、反復、リズム、翻訳性、雑多なレベルをキャプチャーする創造的テキスト翻訳(CTT固有の)機能セットが採用されており、合計447の言語的特徴をもたらす。
機械学習における分類とクラスタリング技術を用いて,これらの翻訳のスタイル分析を行う。
その結果,HTsとMTsは結合語分布と1ワードグラムYiYang比に有意な差異を示し,NMTsとLLMsは記述語使用率と副詞比に有意な差異を示した。
CTT特有の特徴について、LCMはNMTよりも優れた分布を示し、スタイル特性においてHTとより密に整合し、LCMのCLTにおけるポテンシャルを示す。
関連論文リスト
- Decoding Machine Translationese in English-Chinese News: LLMs vs. NMTs [0.0]
本研究では,機械翻訳出力の言語特性である機械翻訳(MTese)について検討する。
4つのサブコーパスからなる大規模データセットを構築し、包括的な5層特徴集合を用いる。
ニューラルネットワーク翻訳システム(NMT)とLarge Language Models(LLM)におけるMTeseの存在が確認された。
論文 参考訳(メタデータ) (2025-06-27T09:45:37Z) - Missing the human touch? A computational stylometry analysis of GPT-4 translations of online Chinese literature [2.3861843983281625]
本研究では,大規模言語モデル(LLM)のスタイリスティックな特徴について検討する。
計算スタイメトリー分析により、GPT-4翻訳は語彙、構文、内容の特徴において人間の翻訳と密接に一致していることが示された。
これらの発見は、ポストヒューマンの観点から、AIが文学翻訳に与える影響についての洞察を与える。
論文 参考訳(メタデータ) (2025-06-16T00:48:09Z) - The Comparison of Translationese in Machine Translation and Human Transation in terms of Translation Relations [7.776258153133857]
この研究は2つのパラレルコーパスを用いており、それぞれが9つのジャンルにまたがって、同じソーステキストで、1つはNMTによって翻訳され、もう1つは人間によって翻訳された。
以上の結果から,NMTはHTよりも翻訳に大きく依存していることが示唆された。
論文 参考訳(メタデータ) (2024-03-27T19:12:20Z) - Distinguishing Translations by Human, NMT, and ChatGPT: A Linguistic and Statistical Approach [1.6982207802596105]
本研究では,(1)NMTとヒト翻訳(HT)からのChatGPT生成翻訳の識別可能性,(2)翻訳タイプの言語的特徴,(3)ChatGPT生成翻訳とHT,あるいはNMTとの類似度について検討する。
論文 参考訳(メタデータ) (2023-12-17T15:56:05Z) - Translation-Enhanced Multilingual Text-to-Image Generation [61.41730893884428]
テキスト・ツー・イメージ・ジェネレーション(TTI)の研究は、現在でも主に英語に焦点を当てている。
そこで本研究では,多言語TTIとニューラルマシン翻訳(NMT)のブートストラップmTTIシステムへの応用について検討する。
我々は,mTTIフレームワーク内で多言語テキスト知識を重み付け,統合する新しいパラメータ効率アプローチであるEnsemble Adapter (EnsAd)を提案する。
論文 参考訳(メタデータ) (2023-05-30T17:03:52Z) - Discourse Centric Evaluation of Machine Translation with a Densely
Annotated Parallel Corpus [82.07304301996562]
本稿では,江らが導入した大規模並列コーパスBWBに基づいて,リッチな談話アノテーションを用いた新しいデータセットを提案する。
ソース言語とターゲット言語の談話構造と類似点と相違点について検討する。
我々はMT出力が人間の翻訳と基本的に異なることを発見した。
論文 参考訳(メタデータ) (2023-05-18T17:36:41Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z) - mT6: Multilingual Pretrained Text-to-Text Transformer with Translation
Pairs [51.67970832510462]
翻訳ペア(mt6)を用いた多言語テキスト間トランスフォーマーの改良
本研究では,機械翻訳,翻訳ペアスパン破壊,翻訳スパン破壊という3つの言語間事前学習タスクについて検討した。
実験の結果,mT6はmT5よりも舌間移動性が向上することがわかった。
論文 参考訳(メタデータ) (2021-04-18T03:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。