論文の概要: An Investigation of Warning Erroneous Chat Translations in Cross-lingual Communication
- arxiv url: http://arxiv.org/abs/2408.15543v1
- Date: Wed, 28 Aug 2024 05:36:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 17:12:56.252176
- Title: An Investigation of Warning Erroneous Chat Translations in Cross-lingual Communication
- Title(参考訳): 言語間通信における誤訳の警告に関する検討
- Authors: Yunmeng Li, Jun Suzuki, Makoto Morishita, Kaori Abe, Kentaro Inui,
- Abstract要約: 本研究は, チャット翻訳のための多次元品質指標(MQM-Chat)を提案する。
各モデルが何らかの根本的な誤りを発生させるのに対し,各モデルには欠落,曖昧なソース内容の過度な修正,バズワード問題といった欠点がある。
本研究は,チャット翻訳評価におけるMQM-Chatの有効性を実証し,今後の研究における文体化コンテンツの重要性と対話の整合性を強調した。
- 参考スコア(独自算出の注目度): 35.69695355173317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The complexities of chats pose significant challenges for machine translation models. Recognizing the need for a precise evaluation metric to address the issues of chat translation, this study introduces Multidimensional Quality Metrics for Chat Translation (MQM-Chat). Through the experiments of five models using MQM-Chat, we observed that all models generated certain fundamental errors, while each of them has different shortcomings, such as omission, overly correcting ambiguous source content, and buzzword issues, resulting in the loss of stylized information. Our findings underscore the effectiveness of MQM-Chat in evaluating chat translation, emphasizing the importance of stylized content and dialogue consistency for future studies.
- Abstract(参考訳): チャットの複雑さは、機械翻訳モデルに重大な課題をもたらす。
チャット翻訳の課題に対処するための正確な評価基準の必要性を認識し, チャット翻訳のための多次元品質指標(MQM-Chat)を提案する。
MQM-Chatを用いた5つのモデルの実験により,全てのモデルが何らかの根本的な誤りを発生させるのに対し,各モデルには欠落,曖昧なソース内容の過度な修正,バズワードの問題など,異なる欠点があることがわかった。
本研究は,チャット翻訳評価におけるMQM-Chatの有効性を実証し,今後の研究における文体化コンテンツの重要性と対話の整合性を強調した。
関連論文リスト
- Do Prompts Really Prompt? Exploring the Prompt Understanding Capability of Whisper [51.12146889808824]
本研究は,ハイパフォーマンス音声認識モデルであるWhisperとプロンプトの情報がどのように相互作用するかを考察する。
結果から,Whisperは人為的に文章のプロンプトを理解できない可能性が示唆された。
また、英語のプロンプトが両方の言語のデータセットで一般的にマンダリンよりも優れていることも指摘されている。
論文 参考訳(メタデータ) (2024-06-09T14:44:59Z) - Crossing the Threshold: Idiomatic Machine Translation through Retrieval
Augmentation and Loss Weighting [66.02718577386426]
慣用的な翻訳と関連する問題を簡易に評価する。
我々は,変圧器をベースとした機械翻訳モデルが慣用的な翻訳に対して正しくデフォルトとなる点を明らかにするための合成実験を行った。
自然慣用句の翻訳を改善するために, 単純かつ効果的な2つの手法を導入する。
論文 参考訳(メタデータ) (2023-10-10T23:47:25Z) - Mitigating Hallucinations and Off-target Machine Translation with
Source-Contrastive and Language-Contrastive Decoding [53.84948040596055]
修正された復号化目標を用いて、障害ケースを緩和する2つの関連手法を提案する。
大規模多言語モデルM2M-100 (418M) とSMaLL-100の実験は、これらの手法が幻覚やターゲット外の翻訳を抑制することを示した。
論文 参考訳(メタデータ) (2023-09-13T17:15:27Z) - Chat Translation Error Detection for Assisting Cross-lingual
Communications [35.09508360315392]
システムのベースラインとしてエラー検出装置を訓練し、日本語と英語のバイリンガルチャットコーパスであるBPersona-chatを構築した。
エラー検出装置は、より高度な誤訳検出システムの基礎となる。
論文 参考訳(メタデータ) (2023-08-02T09:38:29Z) - Lost In Translation: Generating Adversarial Examples Robust to
Round-Trip Translation [66.33340583035374]
本研究は, ラウンドトリップ翻訳における現在のテキスト対逆攻撃の堅牢性に関する包括的研究である。
筆者らは,現在最先端のテキストベースの6つの敵攻撃が,ラウンドトリップ翻訳後の有効性を維持していないことを実証した。
本稿では,機械翻訳を逆例生成のプロセスに組み込むことにより,この問題に対する介入に基づく解決策を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:43Z) - Translate your gibberish: black-box adversarial attack on machine
translation systems [0.0]
我々は、ロシア語から英語への翻訳作業において、最先端の機械翻訳ツールを騙すための簡単なアプローチを提示する。
Google、DeepL、Yandexなど多くのオンライン翻訳ツールが、非意味な逆入力クエリに対して間違ったあるいは攻撃的な翻訳を生成する可能性があることを示す。
この脆弱性は、新しい言語を理解することを妨げ、単に機械翻訳システムを使用する際のユーザエクスペリエンスを悪化させる可能性がある。
論文 参考訳(メタデータ) (2023-03-20T09:52:52Z) - Interactive-Chain-Prompting: Ambiguity Resolution for Crosslingual
Conditional Generation with Interaction [38.73550742775257]
ある言語のソースクエリは、追加のコンテキストなしで、別の言語でいくつかの翻訳オプションを生成することができる。
あいまいさに対処するサブプロブレムのリストに変換を還元する対話型チェーンプロンプトを提案する。
異なる言語現象を示すデータセットを作成し、4つの言語の推論におけるあいまいさを導く。
論文 参考訳(メタデータ) (2023-01-24T21:08:13Z) - A Semi-supervised Approach for a Better Translation of Sentiment in
Dialectical Arabic UGT [2.6763498831034034]
NMTシステムのトレーニングにモノリンガルデータと並列データの両方を利用する半教師付きアプローチを導入する。
提案システムは,アラビア語の方言UGTのオンライン翻訳で検出された感情誤りの訂正に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-21T11:55:55Z) - Self-Supervised Representations Improve End-to-End Speech Translation [57.641761472372814]
自己教師付き事前学習機能により,翻訳性能が一貫的に向上することを示す。
言語間の変換は、チューニングの必要なく、あるいはほとんどチューニングすることなく、さまざまな言語に拡張することができる。
論文 参考訳(メタデータ) (2020-06-22T10:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。