論文の概要: Redefining Machine Simultaneous Interpretation: From Incremental Translation to Human-Like Strategies
- arxiv url: http://arxiv.org/abs/2601.11002v1
- Date: Fri, 16 Jan 2026 05:26:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.36324
- Title: Redefining Machine Simultaneous Interpretation: From Incremental Translation to Human-Like Strategies
- Title(参考訳): 機械の同時解釈の再定義:インクリメンタル翻訳からヒューマンライクな戦略へ
- Authors: Qianen Zhang, Zeyu Yang, Satoshi Nakamura,
- Abstract要約: 同時機械翻訳(SiMT)は、厳密なリアルタイム制約の下で高品質な翻訳を必要とする。
我々は,SiMTのアクション空間を,Sentence_Cut,Drop,Partial_Summarization,Pronominalizationの4つの適応アクションで拡張する。
我々は、これらのアクションを大規模言語モデル(LLM)フレームワークに適応させ、アクション認識プロンプトを通じてトレーニング参照を構築する。
- 参考スコア(独自算出の注目度): 6.010207559477024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous Machine Translation (SiMT) requires high-quality translations under strict real-time constraints, which traditional policies with only READ/WRITE actions cannot fully address. We extend the action space of SiMT with four adaptive actions: Sentence_Cut, Drop, Partial_Summarization and Pronominalization, which enable real-time restructuring, omission, and simplification while preserving semantic fidelity. We adapt these actions in a large language model (LLM) framework and construct training references through action-aware prompting. To evaluate both quality and word-level monotonicity, we further develop a latency-aware TTS pipeline that maps textual outputs to speech with realistic timing. Experiments on the ACL60/60 English-Chinese, English-German and English-Japanese benchmarks show that our framework consistently improves semantic metrics and achieves lower delay compared to reference translations and salami-based baselines. Notably, combining Drop and Sentence_Cut leads to consistent improvements in the balance between fluency and latency. These results demonstrate that enriching the action space of LLM-based SiMT provides a promising direction for bridging the gap between human and machine interpretation.
- Abstract(参考訳): 同時機械翻訳(SiMT)は、厳格なリアルタイム制約の下で高品質な翻訳を必要とする。
我々は,SiMTのアクション空間を4つの適応的アクションで拡張する。Sentence_Cut,Drop,Partial_Summarization,Pronominalization。
我々は、これらのアクションを大規模言語モデル(LLM)フレームワークに適応させ、アクション認識プロンプトを通じてトレーニング参照を構築する。
品質と単語レベルの単調性の両方を評価するため,テキスト出力を現実的なタイミングで音声にマッピングする遅延対応TSパイプラインをさらに開発する。
ACL60/60の英語・中国語・英語・日本語のベンチマーク実験により、我々のフレームワークはセマンティックメトリクスを一貫して改善し、参照翻訳やサラミベースラインと比較して遅延を小さくすることを示した。
特に、DropとSentence_Cutを組み合わせることで、レイテンシとレイテンシのバランスが一貫して改善される。
これらの結果は,LLMをベースとしたSiMTの動作空間の充実が,人間と機械の解釈のギャップを埋める上で有望な方向であることを示している。
関連論文リスト
- Beyond Literal Mapping: Benchmarking and Improving Non-Literal Translation Evaluation [57.11989521509119]
本稿では,特殊なサブエージェントを起動するリフレクティブコアエージェントを中心に,エージェント翻訳評価フレームワークを提案する。
実験の結果、RATEの有効性が示され、現在の測定値と比較して少なくとも3.2メタスコアの改善が達成された。
論文 参考訳(メタデータ) (2026-01-12T09:03:42Z) - DPO-Tuned Large Language Models for Segmentation in Simultaneous Speech Translation [6.611635315225665]
同時音声翻訳は、翻訳品質とレイテンシのバランスをとるために正確なセグメンテーションを必要とする。
直接選好最適化(DPO)で訓練された大規模言語モデルに基づくセグメンテーションフレームワークを提案する。
提案手法は,好みのアライメントを活用することで,リアルタイム翻訳の要求を満たす自然なセグメンテーションポイントをLLMが予測することを可能にする。
論文 参考訳(メタデータ) (2025-10-14T06:41:36Z) - Redefining Machine Simultaneous Interpretation: From Incremental Translation to Human-Like Strategies [4.487634497356904]
同時機械翻訳(SiMT)は、厳密なリアルタイム制約の下で高品質な翻訳を必要とする。
我々は,Sentence_CUT,DROP,Partial_MARIZATION,PronoMINALZATIONの4つの適応アクションでSiMTのアクション空間を拡張した。
我々は、これらのアクションをデコーダのみの大規模言語モデル(LLM)フレームワークで実装し、アクション認識プロンプトを通じてトレーニング参照を構築する。
論文 参考訳(メタデータ) (2025-09-26T02:57:36Z) - Direct Simultaneous Translation Activation for Large Audio-Language Models [58.03785696031301]
音声からテキストへの同時翻訳(Simul-S2TT)は,音声をテキストにリアルタイムで翻訳することを目的としている。
我々は、LALMs固有の能力を利用して同時データを得る戦略であるbf SimulSA(bf SimulSA)を導入する。
論文 参考訳(メタデータ) (2025-09-19T07:12:18Z) - Lost in Literalism: How Supervised Training Shapes Translationese in LLMs [51.04435855143767]
大規模言語モデル(LLM)は機械翻訳において顕著な成功を収めた。
しかし、過度にリテラルと不自然な翻訳を特徴とする翻訳は、依然として永続的な課題である。
我々は、黄金の基準を磨き、不自然なトレーニングインスタンスをフィルタリングするなど、これらのバイアスを軽減する方法を導入する。
論文 参考訳(メタデータ) (2025-03-06T12:14:45Z) - High-Fidelity Simultaneous Speech-To-Speech Translation [75.69884829562591]
本稿では,同時音声翻訳のためのデコーダのみのモデルであるHibikiを紹介する。
Hibikiは、マルチストリーム言語モデルを利用して、ソースとターゲットの音声を同期的に処理し、テキストとオーディオトークンを共同で生成し、音声からテキストへの変換と音声から音声への変換を行う。
論文 参考訳(メタデータ) (2025-02-05T17:18:55Z) - Simultaneous Machine Translation with Tailored Reference [35.46823126036308]
同時機械翻訳(SiMT)は、ソース文全体を読みながら翻訳を生成する。
既存のSiMTモデルは、異なるレイテンシで利用可能な様々なソース情報を無視して、同じ参照を使用してトレーニングされるのが一般的である。
そこで本研究では,異なるレイテンシでトレーニングしたSiMTモデルに対して,基底構造をリフレッシュして参照を調整した新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-20T15:32:26Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。