論文の概要: Redefining Machine Simultaneous Interpretation: From Incremental Translation to Human-Like Strategies
- arxiv url: http://arxiv.org/abs/2509.21801v1
- Date: Fri, 26 Sep 2025 02:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.147989
- Title: Redefining Machine Simultaneous Interpretation: From Incremental Translation to Human-Like Strategies
- Title(参考訳): 機械の同時解釈の再定義:インクリメンタル翻訳からヒューマンライクな戦略へ
- Authors: Qianen Zhang, Satoshi Nakamura,
- Abstract要約: 同時機械翻訳(SiMT)は、厳密なリアルタイム制約の下で高品質な翻訳を必要とする。
我々は,Sentence_CUT,DROP,Partial_MARIZATION,PronoMINALZATIONの4つの適応アクションでSiMTのアクション空間を拡張した。
我々は、これらのアクションをデコーダのみの大規模言語モデル(LLM)フレームワークで実装し、アクション認識プロンプトを通じてトレーニング参照を構築する。
- 参考スコア(独自算出の注目度): 4.487634497356904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous Machine Translation (SiMT) requires high-quality translations under strict real-time constraints, which traditional encoder-decoder policies with only READ/WRITE actions cannot fully address. We extend the action space of SiMT with four adaptive actions: SENTENCE_CUT, DROP, PARTIAL_SUMMARIZATION and PRONOMINALIZATION, which enable real-time restructuring, omission, and simplification while preserving semantic fidelity. We implement these actions in a decoder-only large language model (LLM) framework and construct training references through action-aware prompting. To evaluate both quality and latency, we further develop a latency-aware TTS pipeline that maps textual outputs to speech with realistic timing. Experiments on the ACL60/60 English-Chinese and English-German benchmarks show that our framework consistently improves semantic metrics (e.g., COMET-KIWI) and achieves lower delay (measured by Average Lagging) compared to reference translations and salami-based baselines. Notably, combining DROP and SENTENCE_CUT yields the best overall balance between fluency and latency. These results demonstrate that enriching the action space of LLM-based SiMT provides a promising direction for bridging the gap between human and machine interpretation.
- Abstract(参考訳): 同時機械翻訳(SiMT)は、READ/WRITEアクションのみを持つ従来のエンコーダ/デコーダポリシーが完全に対応できない厳格なリアルタイム制約の下で高品質な翻訳を必要とする。
SENTENCE_CUT, DROP, Partial_SUMMARIZATION, PRONOMINALZATION の4つの適応作用により SiMT の動作空間を拡張し, 意味的忠実性を保ちながらリアルタイムな再構成, 省略, 単純化を可能にする。
我々は、これらのアクションをデコーダのみの大規模言語モデル(LLM)フレームワークで実装し、アクション認識プロンプトを通じてトレーニング参照を構築する。
品質とレイテンシの両方を評価するため,テキスト出力を現実的なタイミングで音声にマッピングするレイテンシ対応TTSパイプラインをさらに開発する。
ACL60/60の英語・中国語・ドイツ語のベンチマーク実験により、我々のフレームワークはセマンティックメトリクス(例えばCOMET-KIWI)を一貫して改善し、参照翻訳やサラミベースラインと比較して遅延(平均ラギング)を低くすることを示した。
特に、DROPとSENTENCE_CUTを組み合わせることで、レイテンシーとレイテンシーのバランスが良くなります。
これらの結果は,LLMをベースとしたSiMTの動作空間の充実が,人間と機械の解釈のギャップを埋める上で有望な方向であることを示している。
関連論文リスト
- Better Late Than Never: Evaluation of Latency Metrics for Simultaneous Speech-to-Text Translation [13.949286462892212]
同時音声テキスト変換(SimulST)システムでは,翻訳品質とレイテンシのバランスをとる必要がある。
既存のメトリクスは、しばしば矛盾または誤解を招く結果を生み出します。
本報告では,言語ペア,システム,短文と長文の両方でSimulSTレイテンシメトリクスを包括的に解析する。
論文 参考訳(メタデータ) (2025-09-22T04:21:19Z) - Overcoming Latency Bottlenecks in On-Device Speech Translation: A Cascaded Approach with Alignment-Based Streaming MT [19.133273093370896]
本稿では,ASR(Automatic Speech Recognition)とMT(Machine Translation)をリアルタイム・オンデバイス・ストリーミング音声翻訳に利用する際の課題について述べる。
本稿では,翻訳品質とレイテンシを効果的にバランスさせる同時翻訳手法を提案する。
我々は,デバイス上でのバイリンガル音声翻訳にアプローチを適用し,レイテンシと品質の点で,我々の技術がベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2025-08-18T21:00:11Z) - Efficient and Adaptive Simultaneous Speech Translation with Fully Unidirectional Architecture [14.056534007451763]
同時音声翻訳(SimulST)は、部分的な音声入力を処理しながら段階的に翻訳を生成する。
既存のLLMベースのSimulSTアプローチは、双方向音声エンコーダの繰り返し符号化による計算オーバーヘッドが大きい。
完全一方向アーキテクチャを用いた効率・適応同時音声翻訳(EASiST)を提案する。
論文 参考訳(メタデータ) (2025-04-16T06:46:15Z) - LLMs Can Achieve High-quality Simultaneous Machine Translation as Efficiently as Offline [16.124385656402744]
大言語モデル(LLM)は、単純なプロンプトで「[src lang]から[tgt lang]に次の文を変換する」という単純なプロンプトでも、オフライン機械翻訳において優れた性能を発揮する。
我々は、同時機械翻訳(SiMT)のための教師付き微調整データの構築を含む新しいパラダイムを提案する。
提案手法は,様々なSiMTベンチマークにおける最先端性能を実現し,オフライン翻訳の本来の能力を維持する。
論文 参考訳(メタデータ) (2025-04-13T13:45:53Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z) - Anticipation-free Training for Simultaneous Translation [70.85761141178597]
同時翻訳(SimulMT)は、原文が完全に利用可能になる前に翻訳を開始することで翻訳プロセスを高速化する。
既存の手法は遅延を増大させるか、SimulMTモデルに適応的な読み書きポリシーを導入し、局所的なリオーダーを処理し、翻訳品質を改善する。
本稿では,翻訳過程をモノトニック翻訳ステップと並べ替えステップに分解する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T16:29:37Z) - On the Limitations of Cross-lingual Encoders as Exposed by
Reference-Free Machine Translation Evaluation [55.02832094101173]
クロスランガルエンコーダの評価は通常、教師付き下流タスクにおけるゼロショットのクロスランガル転送または教師なしのクロスランガル類似性によって行われる。
本稿では、ソーステキストと(低品質な)システム翻訳を直接比較するMT(Reference-free Machine Translation)の評価について述べる。
事前学習したM-BERTとLASERで得られた最先端の言語間セマンティック表現に基づいて,様々なメトリクスを体系的に検討する。
参照なしMT評価において,セマンティックエンコーダとしての性能は低く,その2つの重要な限界を同定する。
論文 参考訳(メタデータ) (2020-05-03T22:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。