論文の概要: BERT Based Multilingual Machine Comprehension in English and Hindi
- arxiv url: http://arxiv.org/abs/2006.01432v1
- Date: Tue, 2 Jun 2020 07:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:19:52.012993
- Title: BERT Based Multilingual Machine Comprehension in English and Hindi
- Title(参考訳): 英語とヒンディー語におけるBERTに基づく多言語機械理解
- Authors: Somil Gupta, Nilesh Khade
- Abstract要約: 104言語で事前訓練されたBERT(m-BERT)のマルチリンガル変種は、ゼロショットと微調整の両方で、多言語タスクのためにうまく機能している。
そこで本稿では, ゼロショット, モノリンガル (Hindi Question-Hindi Snippet など) およびクロスリンガル (英語 Question Hindi Snippet など) の MMC に対する m-BERT を用いた実験を行った。
- 参考スコア(独自算出の注目度): 0.4061135251278187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multilingual Machine Comprehension (MMC) is a Question-Answering (QA)
sub-task that involves quoting the answer for a question from a given snippet,
where the question and the snippet can be in different languages. Recently
released multilingual variant of BERT (m-BERT), pre-trained with 104 languages,
has performed well in both zero-shot and fine-tuned settings for multilingual
tasks; however, it has not been used for English-Hindi MMC yet. We, therefore,
present in this article, our experiments with m-BERT for MMC in zero-shot,
mono-lingual (e.g. Hindi Question-Hindi Snippet) and cross-lingual (e.g.
English QuestionHindi Snippet) fine-tune setups. These model variants are
evaluated on all possible multilingual settings and results are compared
against the current state-of-the-art sequential QA system for these languages.
Experiments show that m-BERT, with fine-tuning, improves performance on all
evaluation settings across both the datasets used by the prior model, therefore
establishing m-BERT based MMC as the new state-of-the-art for English and
Hindi. We also publish our results on an extended version of the recently
released XQuAD dataset, which we propose to use as the evaluation benchmark for
future research.
- Abstract(参考訳): 多言語機械理解(MMC、Multilingual Machine Comprehension)とは、あるスニペットから質問に対する答えを引用することを含む質問回答(QA)サブタスクである。
最近リリースされた BERT (m-BERT) の多言語版は104言語で事前訓練されており、ゼロショットと微調整の両方でうまく機能しているが、英語とヒンディー語ではまだ使われていない。
そこで本稿では, ゼロショット, モノリンガル (Hindi Question-Hindi Snippet など) およびクロスリンガル (英語 Question Hindi Snippet など) の MMC に対する m-BERT を用いた実験を行った。
これらのモデル変種は、可能な全ての多言語設定に基づいて評価され、これらの言語に対する現在の最先端のシーケンシャルQAシステムと比較される。
実験により、m-BERTは、微調整により、前モデルで使用した両方のデータセットのすべての評価設定の性能を改善し、m-BERTベースのMCCを英語とヒンディー語の新たな最先端として確立した。
我々はまた、最近リリースされたXQuADデータセットの拡張バージョンにも結果を公開し、将来の研究のための評価ベンチマークとして使用することを提案する。
関連論文リスト
- P-MMEval: A Parallel Multilingual Multitask Benchmark for Consistent Evaluation of LLMs [84.24644520272835]
大きな言語モデル(LLM)は、翻訳、コード生成、推論といったタスクにまたがる様々な多言語機能を示す。
以前の評価では、その範囲を基本自然言語処理(NLP)や、独立した機能固有のタスクに制限することが多かった。
我々は、これらのベンチマークの有用性に関する以前の研究の監視に対処するため、大規模ベンチマークから利用可能な、合理的なベンチマークを選択するパイプラインを提案する。
本稿では,P-MMEvalを提案する。P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval。
論文 参考訳(メタデータ) (2024-11-14T01:29:36Z) - Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - INDIC QA BENCHMARK: A Multilingual Benchmark to Evaluate Question Answering capability of LLMs for Indic Languages [26.13077589552484]
Indic-QAは、2つの言語ファミリーから11の主要なインドの言語に対して、公開可能なコンテキストベース質問答えデータセットとして最大である。
我々は、Geminiモデルを用いて合成データセットを生成し、パスを与えられた質問応答ペアを作成し、品質保証のために手作業で検証する。
様々な多言語大言語モデルと,その命令を微調整した変種をベンチマークで評価し,その性能,特に低リソース言語について検討した。
論文 参考訳(メタデータ) (2024-07-18T13:57:16Z) - CUNI Submission to MRL 2023 Shared Task on Multi-lingual Multi-task
Information Retrieval [5.97515243922116]
本稿では,多言語多タスク情報検索におけるMRL2023共有タスクのためのチャールズ大学システムを提案する。
共有タスクの目的は、いくつかの未表現言語で名前付きエンティティ認識と質問応答のためのシステムを開発することである。
両方のサブタスクに対する私たちのソリューションは、翻訳テストのアプローチに依存しています。
論文 参考訳(メタデータ) (2023-10-25T10:22:49Z) - The Belebele Benchmark: a Parallel Reading Comprehension Dataset in 122 Language Variants [80.4837840962273]
私たちは122の言語変種にまたがるデータセットであるBelebeleを紹介します。
このデータセットは、高、中、低リソース言語におけるテキストモデルの評価を可能にする。
論文 参考訳(メタデータ) (2023-08-31T17:43:08Z) - Crosslingual Generalization through Multitask Finetuning [80.8822603322471]
マルチタスク誘導ファインタニング(MTF)は、大きな言語モデルがゼロショット設定で新しいタスクに一般化するのに役立つことが示されている。
MTFを事前訓練された多言語BLOOMおよびmT5モデルファミリーに適用し、BLOOMZおよびmT0と呼ばれる微調整された変種を生成する。
英語のプロンプトを用いた英語タスクにおける多言語多言語モデルの微調整により、非英語言語へのタスク一般化が可能となる。
論文 参考訳(メタデータ) (2022-11-03T13:19:32Z) - Beyond Static Models and Test Sets: Benchmarking the Potential of
Pre-trained Models Across Tasks and Languages [15.373725507698591]
本稿は,多言語評価における既存の実践を信頼できないものにし,言語環境全体にわたるMMLMの性能の全体像を提示していないことを論じる。
我々は,NLPタスクのパフォーマンス予測における最近の研究が,多言語NLPにおけるベンチマークの修正における潜在的な解決策となることを示唆する。
実験データと4つの異なる多言語データセットのケーススタディを比較し、これらの手法が翻訳に基づくアプローチとよく一致している性能の信頼性を推定できることを示した。
論文 参考訳(メタデータ) (2022-05-12T20:42:48Z) - MuCoT: Multilingual Contrastive Training for Question-Answering in
Low-resource Languages [4.433842217026879]
マルチ言語BERTベースのモデル(mBERT)は、高ソース言語から低リソース言語への知識伝達にしばしば使用される。
対象言語のQAサンプルを他の言語に翻訳し,mBERTベースのQAモデルを微調整するために拡張データを使用する。
Google ChAIIデータセットの実験では、mBERTモデルを同じ言語ファミリーからの翻訳で微調整することで、質問応答のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2022-04-12T13:52:54Z) - MFAQ: a Multilingual FAQ Dataset [9.625301186732598]
本稿では,最初の多言語FAQデータセットを公開する。
21の異なる言語で、Webから約6万のFAQペアを収集しました。
Dense Passage Retrieval(DPR)と同様のセットアップを採用し、このデータセット上でさまざまなバイエンコーダをテストする。
論文 参考訳(メタデータ) (2021-09-27T08:43:25Z) - A Configurable Multilingual Model is All You Need to Recognize All
Languages [52.274446882747455]
本稿では,1回しか訓練されない新しい多言語モデル(CMM)を提案する。
CMMは、ユーザが1つ、2つ、3つの言語を選択すると、一般的な多言語モデルから26.4%、16.9%、および10.4%の単語誤りを減らす。
論文 参考訳(メタデータ) (2021-07-13T06:52:41Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。