論文の概要: MultiMUC: Multilingual Template Filling on MUC-4
- arxiv url: http://arxiv.org/abs/2401.16209v1
- Date: Mon, 29 Jan 2024 15:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 14:29:55.496192
- Title: MultiMUC: Multilingual Template Filling on MUC-4
- Title(参考訳): MultiMUC: MUC-4上の多言語テンプレート
- Authors: William Gantt, Shabnam Behzad, Hannah YoungEun An, Yunmo Chen, Aaron
Steven White, Benjamin Van Durme, Mahsa Yarmohammadi
- Abstract要約: テンプレートフィリングのための最初の多言語並列コーパスであるMultiMUCを紹介する。
古典的なMUC-4テンプレートフィリングベンチマークをアラビア語、中国語、Farsi、韓国語、ロシア語の5つの言語に翻訳する。
我々は,強い多言語機械翻訳システムから自動翻訳を取得し,本来の英語アノテーションを対象言語に手動で投影する。
- 参考スコア(独自算出の注目度): 34.375840836569964
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce MultiMUC, the first multilingual parallel corpus for template
filling, comprising translations of the classic MUC-4 template filling
benchmark into five languages: Arabic, Chinese, Farsi, Korean, and Russian. We
obtain automatic translations from a strong multilingual machine translation
system and manually project the original English annotations into each target
language. For all languages, we also provide human translations for sentences
in the dev and test splits that contain annotated template arguments. Finally,
we present baselines on MultiMUC both with state-of-the-art template filling
models and with ChatGPT.
- Abstract(参考訳): MUC-4テンプレートフィリングベンチマークをアラビア語、中国語、ファージ語、韓国語、ロシア語の5言語に翻訳し、テンプレートフィリングのための最初の多言語並列コーパスであるMultiMUCを紹介する。
我々は,強い多言語機械翻訳システムから自動翻訳を取得し,本来の英語アノテーションを対象言語に手動で投影する。
すべての言語に対して、アノテーション付きテンプレート引数を含む、開発とテストの分割に関する人間の翻訳も提供します。
最後に、最先端のテンプレートフィリングモデルとChatGPTの両方でMultiMUCのベースラインを示す。
関連論文リスト
- MT4CrossOIE: Multi-stage Tuning for Cross-lingual Open Information
Extraction [38.88339164947934]
言語横断的オープン情報抽出は,複数の言語にまたがる原文から構造化された情報を抽出することを目的としている。
以前の作業では、異なる言語を扱うために、共通言語間の事前訓練モデルを使用していたが、言語固有の表現の可能性を過小評価している。
MT4CrossIEという,言語間オープン情報抽出の効率化を目的とした,効果的な多段階チューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-12T12:38:10Z) - mmT5: Modular Multilingual Pre-Training Solves Source Language
Hallucinations [54.42422445568523]
mmT5はモジュール型多言語シーケンス・ツー・シーケンスモデルである。
言語固有の情報を言語に依存しない情報から切り離す。
mT5と比較して、mT5はゼロショット設定で正しい言語でテキストを生成する率を7%から99%に向上させる。
論文 参考訳(メタデータ) (2023-05-23T16:38:01Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - Crosslingual Generalization through Multitask Finetuning [80.8822603322471]
マルチタスク誘導ファインタニング(MTF)は、大きな言語モデルがゼロショット設定で新しいタスクに一般化するのに役立つことが示されている。
MTFを事前訓練された多言語BLOOMおよびmT5モデルファミリーに適用し、BLOOMZおよびmT0と呼ばれる微調整された変種を生成する。
英語のプロンプトを用いた英語タスクにおける多言語多言語モデルの微調整により、非英語言語へのタスク一般化が可能となる。
論文 参考訳(メタデータ) (2022-11-03T13:19:32Z) - CUNI systems for WMT21: Multilingual Low-Resource Translation for
Indo-European Languages Shared Task [0.0]
複数の類似言語ペアに対してジョイントモデルを使用することで,各ペアの翻訳品質が向上することを示す。
また,チャララクタレベルのバイリンガルモデルと非常に類似した言語対が競合することを示す。
論文 参考訳(メタデータ) (2021-09-20T08:10:39Z) - AlphaMWE: Construction of Multilingual Parallel Corpora with MWE
Annotations [5.8010446129208155]
マルチワード表現(MWE)アノテーションを用いた多言語並列コーパスの構築について述べる。
対象言語は英語、中国語、ポーランド語、ドイツ語である。
MWE関連翻訳において,MTシステムで発生する誤りの種類を分類する。
論文 参考訳(メタデータ) (2020-11-07T14:28:54Z) - mT5: A massively multilingual pre-trained text-to-text transformer [60.0210636815514]
The Text-to-Text Transfer Transformer (T5) は、統一されたテキスト・トゥ・テキストフォーマットとスケールを利用して、英語のNLPタスクで最先端の結果を得る。
101言語をカバーする新しいCommon Crawlベースのデータセットで事前トレーニングを行ったマルチ言語版T5であるmT5を紹介する。
論文 参考訳(メタデータ) (2020-10-22T17:58:14Z) - Multilingual Translation with Extensible Multilingual Pretraining and
Finetuning [77.33262578776291]
これまでの研究は、bitextで微調整することで機械翻訳システムを作成できることを実証してきた。
多言語翻訳モデルは多言語微調整により作成可能であることを示す。
事前訓練されたモデルは、性能を損なうことなく、追加の言語を組み込むように拡張できることを実証する。
論文 参考訳(メタデータ) (2020-08-02T05:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。