論文の概要: It's Not a Walk in the Park! Challenges of Idiom Translation in Speech-to-text Systems
- arxiv url: http://arxiv.org/abs/2506.02995v1
- Date: Tue, 03 Jun 2025 15:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.815496
- Title: It's Not a Walk in the Park! Challenges of Idiom Translation in Speech-to-text Systems
- Title(参考訳): 公園の散歩ではない! 音声テキストシステムにおけるイディオム翻訳の課題
- Authors: Iuliia Zaitova, Badr M. Abdullah, Wei Xue, Dietrich Klakow, Bernd Möbius, Tania Avgustinova,
- Abstract要約: テキスト間機械翻訳(MT)と音声間機械翻訳(SLT)の両システムにおいて,従来のニュース翻訳と比較して翻訳を評価する。
以上の結果から,SLTシステムは慣用的なデータに対して顕著な性能低下を経験し,高層でもリテラルに回帰することが多いことがわかった。
- 参考スコア(独自算出の注目度): 26.39440238965029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Idioms are defined as a group of words with a figurative meaning not deducible from their individual components. Although modern machine translation systems have made remarkable progress, translating idioms remains a major challenge, especially for speech-to-text systems, where research on this topic is notably sparse. In this paper, we systematically evaluate idiom translation as compared to conventional news translation in both text-to-text machine translation (MT) and speech-to-text translation (SLT) systems across two language pairs (German to English, Russian to English). We compare state-of-the-art end-to-end SLT systems (SeamlessM4T SLT-to-text, Whisper Large v3) with MT systems (SeamlessM4T SLT-to-text, No Language Left Behind), Large Language Models (DeepSeek, LLaMA) and cascaded alternatives. Our results reveal that SLT systems experience a pronounced performance drop on idiomatic data, often reverting to literal translations even in higher layers, whereas MT systems and Large Language Models demonstrate better handling of idioms. These findings underscore the need for idiom-specific strategies and improved internal representations in SLT architectures.
- Abstract(参考訳): イディオムは、個々の構成要素から導出できない、比喩的な意味を持つ単語のグループとして定義される。
現代の機械翻訳システムは目覚ましい進歩を遂げているが、特に音声からテキストへの翻訳ではイディオムの翻訳が大きな課題となっている。
本稿では,2つの言語対(ドイツ語,英語,ロシア語,英語)にまたがるテキスト・テキスト・機械翻訳(MT)と音声・テキスト・機械翻訳(SLT)システムにおいて,従来のニュース翻訳と比較して,イディオム翻訳を体系的に評価する。
我々は、最先端のSLTシステム(SeamlessM4T SLT-to-text, Whisper Large v3)とMTシステム(SeamlessM4T SLT-to-text, No Languageleft Behind)、Large Language Models(DeepSeek, LLaMA)、およびカスケードされた代替品を比較した。
以上の結果から,SLTシステムは慣用的なデータに対して顕著な性能低下を経験し,高層でもリテラルに回帰することが多いが,MTシステムや大規模言語モデルでは慣用句の扱いが良くなった。
これらの知見は,SLTアーキテクチャにおけるイディオム固有の戦略の必要性と内部表現の改善を浮き彫りにした。
関連論文リスト
- Wav2Gloss: Generating Interlinear Glossed Text from Speech [78.64412090339044]
音声から4つの言語アノテーションを自動抽出するタスクであるWav2Glossを提案する。
音声からのインターリニア・グロッシド・テキスト・ジェネレーションの今後の研究の基盤となる基盤となるものについて述べる。
論文 参考訳(メタデータ) (2024-03-19T21:45:29Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Do GPTs Produce Less Literal Translations? [20.095646048167612]
大規模言語モデル(LLM)は多くの自然言語生成や理解タスクに対処できる汎用言語モデルとして登場した。
GPTからの英語(E-X)からの翻訳はリテラルが低い傾向にあり、機械翻訳の品質指標に類似またはより良いスコアが示されることがわかりました。
論文 参考訳(メタデータ) (2023-05-26T10:38:31Z) - Discourse Centric Evaluation of Machine Translation with a Densely
Annotated Parallel Corpus [82.07304301996562]
本稿では,江らが導入した大規模並列コーパスBWBに基づいて,リッチな談話アノテーションを用いた新しいデータセットを提案する。
ソース言語とターゲット言語の談話構造と類似点と相違点について検討する。
我々はMT出力が人間の翻訳と基本的に異なることを発見した。
論文 参考訳(メタデータ) (2023-05-18T17:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。