論文の概要: Findings of the WMT 2023 Shared Task on Discourse-Level Literary
Translation: A Fresh Orb in the Cosmos of LLMs
- arxiv url: http://arxiv.org/abs/2311.03127v1
- Date: Mon, 6 Nov 2023 14:23:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:12:24.941794
- Title: Findings of the WMT 2023 Shared Task on Discourse-Level Literary
Translation: A Fresh Orb in the Cosmos of LLMs
- Title(参考訳): WMT2023の談話レベル文学翻訳における共有課題の発見:LLMの宇宙における新しいオーブ
- Authors: Longyue Wang, Zhaopeng Tu, Yan Gu, Siyou Liu, Dian Yu, Qingsong Ma,
Chenyang Lyu, Liting Zhou, Chao-Hong Liu, Yufeng Ma, Weiyu Chen, Yvette
Graham, Bonnie Webber, Philipp Koehn, Andy Way, Yulin Yuan, Shuming Shi
- Abstract要約: 我々は、著作権と文書レベルの中国英語ウェブ小説コーパスをリリースする。
今年は7つのアカデミックチームと業界チームから14の応募を受け取りました。
システムの公式ランキングは、全体的な人間の判断に基づいている。
- 参考スコア(独自算出の注目度): 80.05205710881789
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Translating literary works has perennially stood as an elusive dream in
machine translation (MT), a journey steeped in intricate challenges. To foster
progress in this domain, we hold a new shared task at WMT 2023, the first
edition of the Discourse-Level Literary Translation. First, we (Tencent AI Lab
and China Literature Ltd.) release a copyrighted and document-level
Chinese-English web novel corpus. Furthermore, we put forth an
industry-endorsed criteria to guide human evaluation process. This year, we
totally received 14 submissions from 7 academia and industry teams. We employ
both automatic and human evaluations to measure the performance of the
submitted systems. The official ranking of the systems is based on the overall
human judgments. In addition, our extensive analysis reveals a series of
interesting findings on literary and discourse-aware MT. We release data,
system outputs, and leaderboard at
http://www2.statmt.org/wmt23/literary-translation-task.html.
- Abstract(参考訳): 文学作品の翻訳は、機械翻訳(MT)において、複雑な課題に突き当たった旅路として、長年の夢とされてきた。
この領域の進展を促進するため、我々は、ディスコース・レベル文学翻訳の第1版であるWMT 2023で新しい共有タスクを開催する。
まず、当社(Tencent AI LabとChina Literature Ltd.)は、著作権と文書レベルの中国英語ウェブ小説コーパスをリリースする。
さらに、人間評価プロセスを導くための業界支援基準も提示した。
今年は7つの学術チームと業界チームから14の応募を受け取りました。
提案システムの性能評価には,自動評価と人的評価の両方を用いる。
システムの公式ランキングは、全体的な人間の判断に基づいている。
我々は、データ、システム出力、リーダーボードをhttp://www2.statmt.org/wmt23/literary-translation-task.htmlでリリースしています。
関連論文リスト
- Discourse Centric Evaluation of Machine Translation with a Densely
Annotated Parallel Corpus [82.07304301996562]
本稿では,江らが導入した大規模並列コーパスBWBに基づいて,リッチな談話アノテーションを用いた新しいデータセットを提案する。
ソース言語とターゲット言語の談話構造と類似点と相違点について検討する。
我々はMT出力が人間の翻訳と基本的に異なることを発見した。
論文 参考訳(メタデータ) (2023-05-18T17:36:41Z) - Error Analysis Prompting Enables Human-Like Translation Evaluation in
Large Language Models [61.25124893688374]
機械翻訳(MT)の品質を評価するために,大規模言語モデル(LLM)を用いることで,システムレベルでの最先端のパフォーマンスを実現する。
我々はtextbftexttError Analysis Prompting (EAPrompt) と呼ばれる新しいプロンプト手法を提案する。
本手法は,多次元品質指標 (MQM) とtextitproduces を用いて,システムレベルとセグメントレベルの両方で説明可能かつ信頼性の高いMT評価を行う。
論文 参考訳(メタデータ) (2023-03-24T05:05:03Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - A Bilingual Parallel Corpus with Discourse Annotations [82.07304301996562]
本稿では,Jiang et al. (2022)で最初に導入された大きな並列コーパスであるBWBと,注釈付きテストセットについて述べる。
BWBコーパスは、専門家によって英語に翻訳された中国の小説で構成されており、注釈付きテストセットは、様々な談話現象をモデル化する機械翻訳システムの能力を調査するために設計されている。
論文 参考訳(メタデータ) (2022-10-26T12:33:53Z) - Exploring Document-Level Literary Machine Translation with Parallel
Paragraphs from World Literature [35.1398797683712]
文献翻訳者は, 機械翻訳段落よりも, 84%の割合で人文翻訳を好んでいる。
我々は、通常のMT出力よりも出力が好ましい後編集モデルを専門家によって69%の速度で訓練する。
論文 参考訳(メタデータ) (2022-10-25T18:03:34Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - Learning to Evaluate Translation Beyond English: BLEURT Submissions to
the WMT Metrics 2020 Shared Task [30.889496911261677]
本稿では,WMT 2020 Metrics Shared Taskへのコントリビューションについて述べる。
我々は、移動学習に基づくメトリクスBLEURTに基づいていくつかの提案を行う。
BLEURTの予測とYiSiの予測を組み合わせ、代替参照変換を用いて性能を向上させる方法を示す。
論文 参考訳(メタデータ) (2020-10-08T23:16:26Z) - ON-TRAC Consortium for End-to-End and Simultaneous Speech Translation
Challenge Tasks at IWSLT 2020 [25.024259342365934]
ON-TRACコンソーシアムは、フランスの3つの学術研究所の研究者で構成されている。
学習したエンドツーエンドのアテンションベースエンコーダデコーダモデルを用いて、オフライン音声翻訳トラックへの提案を行った。
同時音声翻訳トラックでは,テキスト・トゥ・テキスト・サブタスクのための Transformer ベースのwait-k モデルを構築している。
論文 参考訳(メタデータ) (2020-05-24T23:44:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。