論文の概要、ライセンス

# (参考訳) dtw at qur'an qa 2022: 低リソースドメインにおける質問応答のためのトランスフォーマーによる転送学習の活用 [全文訳有]

DTW at Qur'an QA 2022: Utilising Transfer Learning with Transformers for Question Answering in a Low-resource Domain ( http://arxiv.org/abs/2205.06025v1 )

ライセンス: CC BY 4.0
Damith Premasiri, Tharindu Ranasinghe, Wajdi Zaghouani, Ruslan Mitkov(参考訳) 機械読解(MRC)の課題は,機械の自然言語理解を評価する上で有用なベンチマークである。 自然言語処理(NLP)分野では、主に多くの言語でリリースされた大量のデータセットのために人気を集めている。 しかし、mrcの研究は宗教文献を含むいくつかの領域で研究されている。 qur'an qa 2022の共通タスクの目的は、qur'anに関する最先端の質問応答と理解研究を提供することで、このギャップを埋めることである。 本稿では,Quran QA 2022共有タスクのDTWエントリについて述べる。 提案手法は移動学習を用いてアラビアMRCデータの活用を行う。 さらに,様々なアンサンブル学習戦略を用いて,結果をさらに改善する。 提案手法は,テストセットにおいて,部分的相互ランク(pRR)スコアが0.49であり,タスク上での強い性能が証明された。

The task of machine reading comprehension (MRC) is a useful benchmark to evaluate the natural language understanding of machines. It has gained popularity in the natural language processing (NLP) field mainly due to the large number of datasets released for many languages. However, the research in MRC has been understudied in several domains, including religious texts. The goal of the Qur'an QA 2022 shared task is to fill this gap by producing state-of-the-art question answering and reading comprehension research on Qur'an. This paper describes the DTW entry to the Quran QA 2022 shared task. Our methodology uses transfer learning to take advantage of available Arabic MRC data. We further improve the results using various ensemble learning strategies. Our approach provided a partial Reciprocal Rank (pRR) score of 0.49 on the test set, proving its strong performance on the task.
公開日: Thu, 12 May 2022 11:17:23 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
DTW at Qur’an QA 2022: Utilising Transfer Learning with Transformers Qur’an QA 2022のDTW: トランスフォーマーを用いたトランスファーラーニングの利用 0.79
for Question Answering in a Low-resource Domain 低リソースドメインで質問に答える 0.66
Damith Premasiri1, Tharindu Ranasinghe1, Wajdi Zaghouani2, Ruslan Mitkov1 Damith Premasiri1, Tharindu Ranasinghe1, Wajdi Zaghouani2, Ruslan Mitkov1 0.44
1University of Wolverhampton, UK 2Hamad Bin Khalifa University, Qatar ウルヴァーハンプトン大学、uk 2hamad bin khalifa university、カタール 0.58
{damith.premasiri, tharindu.ranasinghe, r.mitkov}@wlv.ac.uk damith.premasiri, tharindu.ranasinghe, r.mitkov}@wlv.ac.uk 0.28
wzaghouani@hbku.edu. qa wzaghouani@hbku.edu. qa 0.29
2 2 0 2 y a M 2 1 2 2 0 2 y a m 2 1 である。 0.52
] L C . s c [ 1 v 5 2 0 6 0 ]LC。 sc [ 1 v 5 2 0 6 0 0.30
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract The task of machine reading comprehension (MRC) is a useful benchmark to evaluate the natural language understanding of machines. 概要 機械読解(MRC)の課題は,機械の自然言語理解を評価する上で有用なベンチマークである。 0.64
It has gained popularity in the natural language processing (NLP) field mainly due to the large number of datasets released for many languages. 自然言語処理(NLP)分野では、主に多くの言語でリリースされた大量のデータセットのために人気を集めている。 0.84
However, the research in MRC has been understudied in several domains, including religious texts. しかし、mrcの研究は宗教文献を含むいくつかの領域で研究されている。 0.67
The goal of the Qur’an QA 2022 shared task is to fill this gap by producing state-of-the-art question answering and reading comprehension research on Qur’an. qur’an qa 2022共有タスクの目標は、最先端の質問応答とqur’anに関する理解研究によって、このギャップを埋めることだ。 0.69
This paper describes the DTW entry to the Quran QA 2022 shared task. 本稿では,Quran QA 2022共有タスクのDTWエントリについて述べる。 0.86
Our methodology uses transfer learning to take advantage of available Arabic MRC data. 提案手法は移動学習を用いてアラビアMRCデータの活用を行う。 0.73
We further improve the results using various ensemble learning strategies. さらに,様々なアンサンブル学習戦略を用いて,結果をさらに改善する。 0.66
Our approach provided a partial Reciprocal Rank (pRR) score of 0.49 on the test set, proving its strong performance on the task. 提案手法は,テストセットにおいて,部分的相互ランク(pRR)スコアが0.49であり,タスク上での強い性能が証明された。 0.69
Keywords: Machine Reading Comprehension, Transformers, Transfer Learning, Ensemble Learning, Qur’an キーワード:機械読解、トランスフォーマー、転送学習、アンサンブル学習、qur’an 0.66
1. Introduction Machine Reading Comprehension (MRC) is a challenging Natural Language Processing (NLP) application (Baradaran et al , 2022). 1. はじめに Machine Reading Comprehension (MRC)は、自然言語処理(NLP)アプリケーション(Baradaran et al , 2022)である。 0.58
The concept of MRC is similar to how humans are evaluated in examinations where a person should understand the text and answer questions based on the text. MRCの概念は、人間がテキストを理解し、テキストに基づいて質問に答えるべき試験において、人間がどのように評価されるかに似ている。
訳抜け防止モード: MRCの概念はどのように似ているか 人間はテキストを理解し、テキストに基づいて質問に答える検査で評価される。
0.71
Similarly, the goal of a typical MRC task requires a machine to read a set of text passages and then answer questions about the passages. 同様に、典型的なMRCタスクのゴールは、機械がテキストの文節を読み、その文節に関する質問に答えることである。 0.66
MRC systems could be widely applied in many NLP systems such as search engines and dialogue systems. MRCシステムは、検索エンジンや対話システムなどの多くのNLPシステムに広く応用できる。 0.77
Therefore, the NLP community has shown a great interest in MRC tasks over recent years. そのため,近年,NLP コミュニティは MRC タスクへの関心が高まっている。 0.68
The most common way of dealing with MRC tasks is to train a machine learning model on an annotated dataset. MRCタスクを扱う最も一般的な方法は、アノテーション付きデータセットで機械学習モデルをトレーニングすることだ。 0.81
Over the years, researchers have experimented with different machine learning approaches ranging from traditional algorithms such as support vector machines (Suzuki et al , 2002; Yen et al , 2013) to embedding based neural approaches such as transformers, with the latter providing state-of-the-art results in many datasets. 長年にわたり、研究者は、サポートベクターマシン(Suzuki et al , 2002; Yen et al , 2013)のような伝統的なアルゴリズムから、トランスフォーマーのようなベースとなるニューラルネットワークアプローチへの埋め込みまで、さまざまな機械学習アプローチを実験してきた。 0.69
We discuss them thoroughly in Section 2. 第2節ではこれらを徹底的に議論する。 0.47
However, an annotated dataset is an essential requirement for these machine learning models. しかし、アノテーション付きデータセットはこれらの機械学習モデルにとって必須の要件である。 0.69
Identifying this, the NLP community has developed several datasets in recent years. これを特定するため、NLPコミュニティは近年、いくつかのデータセットを開発してきた。 0.52
The most popular MRC dataset is the Stanford Question Answering Dataset (SQuAD), which contains more than 100,000 annotated examples (Rajpurkar et al , 2016). 最も一般的なMRCデータセットはSQuAD(Stanford Question Answering Dataset)であり、100,000以上の注釈付きサンプルが含まれている(Rajpurkar et al , 2016)。 0.75
SQuAD dataset has been extended to several languages including Arabic (Mozannar et al , 2019), Dutch (Rouws et al., 2022), Persian (Abadani et al , 2021) and Sinhala (Jayakody et al , 2016). SQuADデータセットは、アラビア語(Mozannar et al , 2019)、オランダ語(Rouws et al., 2022)、ペルシア語(Abadani et al , 2021)、シンハラ語(Jayakody et al , 2016)など、いくつかの言語に拡張されている。 0.78
However, MRC datasets have been limited to common domains such as Wikipedia しかし、MRCデータセットはウィキペディアのような一般的なドメインに限定されている。 0.62
and MRC in low-resource domains, including religious books, have not been explored widely by the community (Baradaran et al , 2022). 宗教書を含む低資源領域のMRCは、コミュニティによって広く調査されていない(Baradaran et al , 2022)。 0.77
Moreover, most researchers focus on a few popular MRC datasets, while most other MRC datasets are not widely known and studied by the community (Zeng et al , 2020). さらに、ほとんどの研究者はいくつかの人気のあるRCデータセットに焦点を当てているが、他のほとんどのRCデータセットはコミュニティによって広く知られ、研究されていない(Zeng et al , 2020)。 0.58
Qur’an QA 2022 shared task(Malhas et al , 2022) has been organised to address these gaps in MRC research. Qur’an QA 2022 shared task(Malhas et al , 2022)は、MRC研究におけるこれらのギャップに対処するために組織されている。 0.71
The goal of the shared task is to trigger state-of-theart question answering and reading comprehension research on a book that is sacredly held by more than 1.8 billion people across the world. 共有タスクの目標は、世界中の18億人以上の人々が神聖に保持している本について、最新鋭の質問の回答と理解調査を起動することである。 0.61
The shared task relies on a recently released dataset of 1,337 questionpassage-answ er triplets extracted from the holy Qur’an (Malhas and Elsayed, 2020). この共有タスクは、最近リリースされたholy qur’an(malhas and elsayed, 2020)から抽出された1,337のqwerpassage-answerトリプレットのデータセットに依存している。 0.49
Despite the novelty, the dataset poses several challenges. 新規性にもかかわらず、データセットにはいくつかの課題がある。 0.44
Firstly, since the dataset contains texts from Qur’an, modern embedding models would have problems encoding them. まず、データセットにはQur’anのテキストが含まれているため、現代的な埋め込みモデルにはそれらをエンコードする問題がある。 0.58
Therefore, we experimented with different pre-processing techniques to handle the texts from Qur’an. そこで我々は,Qur’anのテキストを扱うために,さまざまな事前処理手法を実験した。 0.69
Secondly, the dataset is small compared to other MRC datasets such as SQuAD (Rajpurkar et al , 2016), and it would be difficult to fine-tune the state-of-the-art neural models. 第2に、データセットはSQuAD(Rajpurkar et al , 2016)のような他のRCデータセットと比較して小さく、最先端のニューラルネットワークを微調整することは困難である。 0.61
We experiment with different techniques such as transfer learning and ensemble learning to overcome this. これを克服するために,転送学習やアンサンブル学習といった異なる手法を試す。 0.74
We show that state-of-the-art neural models can be applied in smaller MRC datasets utilising the above methods. 以上の手法を用いて,より小さなMCCデータセットに最先端のニューラルモデルを適用することができることを示す。 0.60
We address two research questions in this paper: RQ1: Do ensemble models provide better results compared to single models? RQ1: アンサンブルモデルはシングルモデルよりも優れた結果をもたらすか? 0.52
RQ2: Can other Arabic MRC resources such as SOQAL (Mozannar et al , 2019) be used to improve the results for Qur’an MRC? RQ2: SoQAL (Mozannar et al , 2019)のような他のアラビア語のMRCリソースは、Qur’an MRCの結果を改善するために使用できるか? 0.83
英語(論文から抽出)日本語訳スコア
The code of the experiments has been released as an open-source Github project1. 実験のコードはオープンソースGithub project1としてリリースされた。 0.79
The project has been released as a Python package2 and the pre-trained machine learning models are freely available to download in HuggingFace model hub3. このプロジェクトはPythonパッケージ2としてリリースされ、事前トレーニングされた機械学習モデルはHuggingFace model hub3で無料でダウンロードできる。 0.81
Furthermore, we have created a docker image of the experiments adhering to the ACL reproducibility criteria4. さらに,ACL再現性基準4に準拠した実験のダッカー画像を作成した。 0.74
The rest of the paper is structured as follows. 残りの紙は次のように構成されている。 0.71
Section 2 presents an overview of MRC datasets and machine learning models. 第2節では、MRCデータセットと機械学習モデルの概要を紹介する。 0.67
Section 3 describes the data we used in the experiments. 第3節では、実験で使用したデータについて説明する。 0.57
In Section 4 we explain the experiments carried out. 第4節では実験について説明する。 0.75
Section 5 discusses the results answering the research questions. 第5節では研究結果について論じている。 0.60
Finally, the paper outlines future works and provides conclusions. 最後に,今後の成果を概説し,結論を述べる。 0.69
2. Related Work Machine reading comprehension is not newly proposed. 2.関連業務 機械読解は提案されていない。 0.70
The earliest known MRC system dates back to 1977 when (Lehnert, 1977) developed a question answering program called the QUALM. 初期のMCCシステムは1977年に (Lehnert, 1977) が QUALM と呼ばれる質問応答プログラムを開発したのにさかのぼる。 0.81
In 1999 (Hirschman et al , 1999) constructed a reading comprehension system exploiting a corpus of 60 development and 60 test stories of 3rd to 6th-grade material. 1999年(Hirschman et al , 1999)は、第3級から第6級の60個のテストストーリーと60個の開発コーパスを利用した読解システムを構築した。 0.73
Due to the lack of high-quality MRC datasets and the poor performance of MRC models, this research field was understudied until the early 2010s. 高品質のMRCデータセットの欠如とMRCモデルの低性能のため、この研究分野は2010年代初めまで検討された。 0.84
However, with the creation of large MRC datasets and with the success of word embedding based neural models in the NLP field, research in MRC has been popular in recent years. しかし、大規模なMRCデータセットの作成や、NLP分野における単語埋め込みベースのニューラルモデルの成功により、近年はRCの研究が盛んになっている。 0.74
We present the related work in MRC in two broad categories; datasets and models. MRCにおける関連する研究は、データセットとモデルという2つの幅広いカテゴリで紹介する。 0.63
Datasets In 2013, (Richardson et al , 2013) created the MCTest dataset which contained 500 stories and 2000 questions. Datasets 2013年(Richardson et al , 2013)は、500のストーリーと2000の質問を含むMCTestデータセットを作成しました。 0.74
This dataset can be considered the first big MRC dataset. このデータセットは、最初の大きなmrcデータセットと見なすことができる。 0.61
A breakthrough in MRC was achieved in 2015 when (Hermann et al , 2015) defined a new dataset generation method that provides large-scale supervised reading comprehension datasets. mrcのブレークスルーは2015年に(hermann et al , 2015)、大規模な教師付き読み理解データセットを提供する新しいデータセット生成方法の定義で達成された。 0.64
This was followed by the creation of large scale MRC datasets such as SQuAD(Rajpurkar et al , 2016). その後、SQuAD(Rajpurkar et al , 2016)のような大規模RCデータセットが作成された。 0.71
Later the SQuAD dataset has been expanded to many languages including Arabic (Mozannar et al , 2019), Dutch (Rouws et al , 2022), French (d’Hoffschmidt et al , 2020) and Russian (Efimov et al., 2020). その後、SQuADデータセットはアラビア語(Mozannar et al , 2019)、オランダ語(Rouws et al , 2022)、フランス語(d’Hoffschmidt et al , 2020)、ロシア語(Efimov et al., 2020)など多くの言語に拡張されている。 0.85
Furthermore, SQuAD has been extended to low-resource languages such as Persian (Abadani et al , さらに、SQuADはペルシア語(Abadani et al )のような低リソース言語にも拡張されている。 0.60
1The Github project is available on https://github. githubプロジェクトは、https://github.com/で入手できる。 0.63
com/DamithDR/Questio nAnswering com/DamithDR/Questio nAnswering 0.20
2The Python package is available on https://pypi. Pythonパッケージはhttps://pypi.com/で入手できる。 0.68
org/project/quesans/ org/project/quesans/ 0.17
3The pre-trained models are 3 予習 モデル は 0.56
available on https://huggingface. co/Damith/ AraELECTRA-discrimin ator-SOQAL and AraELECTRA-discrimin ator-QuranQA 利用可能 オン https://huggingface. co/Damith/AraELECTRA -discriminator-SOQAL とAraELECTRA-discrimin ator-QuranQA 0.47
https://huggingface. co/Damith/ https://huggingface. co/Damith/ 0.21
4The docker image is 4 ドッカー 画像 は 0.59
available on https: 利用可能 httpsについて: 0.63
//hub.docker.com/r/d amithpremasiri/ question-answering-q uran hub.docker.com/r/dam ithpremasiri/ question-answering-q uran 0.10
2021) and Sinhala (Jayakody et al , 2016) proving that SQuAD has been an important benchmark in MRC research. 2021) と Sinhala (Jayakody et al , 2016) は、SQuAD が MRC 研究において重要なベンチマークであることを示した。 0.72
MRC datasets have been compiled on different domains such as news (Trischler et al , 2017), publications (Dasigi et al , 2021) and natural sciences (Welbl et al , 2017). MRCデータセットは、ニュース(Trischler et al , 2017)、出版(Dasigi et al , 2021)、自然科学(Welbl et al , 2017)など、さまざまな領域でコンパイルされている。 0.78
As far as we know, Qur’an Reading Comprehension Dataset used in this shared task is the first dataset created on religious texts (Malhas and Elsayed, 2020). この共有タスクで使用されるQur’an Reading Comprehension Datasetは、宗教的なテキスト(Malhas and Elsayed, 2020)で作成された最初のデータセットだ。 0.83
Methods Most MRC systems in the early 2000s were rule-based or statistical models (Riloff and Thelen, 2000; Charniak et al , 2000). 2000年代初頭のほとんどのMRCシステムはルールベースまたは統計モデルであった(Riloff and Thelen, 2000; Charniak et al , 2000)。 0.85
These models do not provide good results compared to the neural methods introduced in recent years (Baradaran et al , 2022). これらのモデルでは近年導入された神経学的手法と比較して良い結果が得られていない(Baradaran et al , 2022)。 0.71
(Hermann et al , 2015) developed a class of attention based deep neural networks that learn to read real documents and answer complex questions with minimal prior knowledge of language structure. (Hermann et al , 2015)は、実際の文書を読み、言語構造に関する最小限の事前知識で複雑な質問に答える、注意に基づくディープニューラルネットワークのクラスを開発した。 0.73
Since 2015, with the emergence of various large scale, supervised datasets, neural network models have shown state-ofthe-art results in MRC tasks. 2015年以降、様々な大規模で教師付きデータセットが出現し、ニューラルネットワークモデルはMDCタスクで最先端の結果を示している。 0.63
The recently introduced transformer models such as BERT (Devlin et al , 2019) have already exceeded human performance over the related MRC benchmark datasets (Zeng et al , 2020). 最近導入されたBERT(Devlin et al , 2019)のようなトランスフォーマーモデルは、関連するMCCベンチマークデータセット(Zeng et al , 2020)よりも人的パフォーマンスを上回っている。 0.76
A critical contribution of the SQuAD benchmark is that it provides a system to submit the MRC models and a leaderboard to display the top results5. SQuADベンチマークの重要な貢献は、MSCモデルを提出するシステムと、上位結果5を表示するリーダボードを提供することである。 0.77
This has enabled the NLP community to keep track of the state-ofthe-art MRC systems. これにより、NLPコミュニティは最先端のMCCシステムを追跡することができる。 0.59
Other languages have also followed this approach6. 他の言語もこのアプローチ6に従っている。 0.68
However, the NLP community has focused mainly on improving system performance on popular benchmarks such as SQuAD and has not focused on improving results on benchmarks with limited coverage, which we address in this research paper. しかし、NLPコミュニティは、主にSQuADのような一般的なベンチマークのシステム性能の改善に焦点を合わせており、カバー範囲が限定されたベンチマークの結果の改善には焦点を当てていない。 0.61
3. Data MRC tasks are usually divided into four categories: cloze style, multiple-choice, span prediction, and free form (Liu et al , 2019). 3.データ mrcタスクは通常、clozeスタイル、multiple-choice、span prediction、free form(liu et al 、2019)の4つのカテゴリに分類される。 0.75
The Qur’an QA 2022 shared task7 belongs to the span prediction category where the MRC system needs to select the correct beginning and end of the answer text from the context. Qur’an QA 2022共有タスク7は、MCCシステムがコンテキストから回答テキストの正しい開始と終了を選択する必要があるスパン予測カテゴリに属している。 0.72
The event organisers provided the QRCD (Quran Reading Comprehension Dataset), which contained 1,093 tuples of question-passage pairs that are coupled with their extracted answers to constitute 1,337 question-passageansw er triplets. イベントオーガナイザはQRCD(Quran Reading Comprehension Dataset)を提供し、このデータセットには、抽出された回答と結合された1093のタプルが含まれている。 0.63
QRCD is a JSON Lines (JSONL) file; each line is a JSON object that comprises a questionpassage pair and its answers extracted from the accompanying passage. QRCDはJSON行(JSONL)ファイルであり、各行は質問パスペアと関連するパスから抽出された回答を含むJSONオブジェクトである。 0.79
Figure 1 shows a sample training tu- 図1は、トレーニングのサンプルを示します。 0.66
5SQuAD leaderboard 5SQuADリーダーボード 0.62
is available on https: は 利用可能 httpsについて: 0.67
//rajpurkar.github.i o/SQuAD-explorer/ ※rajpurkar.github.io/ squad-explorer/ 0.14
6Korean MRC leaderboard is available on https:// 6Korean MRCのリーダーボードはhttps:// 0.80
korquad.github.io/ korquad.github.io/ 0.17
7More information on the Qur’an QA 2022 shared task is available on https://sites.google .com/view/ quran-qa-2022/ Qur’an QA 2022共有タスクの詳細はhttps://sites.google .com/view/ quran-qa-2022/で確認できる。 0.62
英語(論文から抽出)日本語訳スコア
ple. The distribution of the dataset into training, development and test sets is shown in Table 1. さっさと データセットのトレーニング、開発、テストセットへの分布を表1に示す。 0.50
Figure 1: Sample Json object from the QRCD dataset (Malhas and Elsayed, 2020) 図1:QRCDデータセットからのサンプルJsonオブジェクト(Malhas and Elsayed, 2020) 0.81
Dataset Training データセットトレーニング 0.78
Development Test All % Q-P Pairs Q-P-A Triplets 65% 10% 25% 100% 開発 テストすべて %Q-PペアQ-P-Aトリプレット 65% 10% 25% 100% 0.75
710 109 274 1,093 710 109 274 1,093 0.42
861 128 348 1,337 861 128 348 1,337 0.42
Table 1: Shared Task Data Composition. 表1: タスクデータ構成の共有。 0.78
Column QP Pairs shows the number of Question Passage pairs, Column Q-P-A Triplets shows the number of Question Passage Answer triplets in the dataset カラムQPペアは問合せペア数、カラムQ-P-Aトリプレットは、データセット内の問合せ回答トリプレット数を示す 0.70
SOQAL contains two Arabic MRC datasets; Arabic Reading Comprehension Dataset (ARCD) (Mozannar et al , 2019), composed of 1,395 questions posed by crowdworkers on Wikipedia articles, and a machine translation of the SQuAD (Mozannar et al , 2019) containing 48,344 questions. SOQALには2つのアラビア語のMRCデータセットが含まれている: Arabic Reading Comprehension Dataset (ARCD) (Mozannar et al , 2019)、ウィキペディアの記事のクラウドワーカーによる1,395の質問、48,344の質問を含むSQuAD (Mozannar et al , 2019)。 0.84
SQuAD is widely used as the standard dataset in English MRC tasks, therefore using the machine translation of the same dataset will be helpful for the learning process. SQuADは英語のMRCタスクの標準データセットとして広く使われているため、同じデータセットの機械翻訳を使用することで学習プロセスに役立ちます。 0.83
Compared to QRCD, SOQAL is a large dataset and both of these datasets belong to the span prediction MRC category. QRCDと比較すると、SOQALは大きなデータセットであり、これらのデータセットはどちらもスパン予測MCCカテゴリに属している。 0.63
Therefore, they can be used to perform transfer learning which we describe in Section 4. そのため、第4節で記述した転帰学習に使用することができる。 0.70
4. Methodology With the introduction of BERT (Devlin et al , 2019), transformer models have achieved state-of-the-art results in different NLP applications such as text classification (Ranasinghe and Hettiarachchi, 2020), information extraction (Plum et al , 2022) and event detection (Giorgi et al , 2021). 4.方法論 BERT (Devlin et al , 2019)の導入により、トランスフォーマーモデルは、テキスト分類(Ranasinghe and Hettiarachchi, 2020)、情報抽出(Plum et al , 2022)、イベント検出(Giorgi et al , 2021)など、さまざまなNLPアプリケーションにおいて、最先端の結果を達成した。 0.79
Furthermore, the transformer architectures have shown promising results in SQuAD dataset (Zhang et al , 2021; Zhang et al , 2020; Yamada et al , 2020; Lan et al , 2020). さらに、トランスフォーマーアーキテクチャは、SQuADデータセット(Zhang et al , 2021; Zhang et al , 2020; Yamada et al , 2020; Lan et al , 2020)で有望な結果を示している。 0.81
In view of this, we use これを考えると、私たちは使う。 0.57
transformers as the basis of our methodology. トランスフォーマーは我々の方法論の基盤です 0.67
Transformer architectures have been trained on general tasks like language modelling and then can be fine-tuned for MRC tasks. トランスフォーマーアーキテクチャは、言語モデリングのような一般的なタスクでトレーニングされ、mrcタスク用に微調整することができる。
訳抜け防止モード: トランスフォーマーアーキテクチャは言語モデリングのような一般的なタスクで訓練されている MRCタスク用に調整することもできます。
0.65
(Devlin et al , 2019). (Devlin et al, 2019)。 0.40
For the MRC task, transformer models take an input of a single sequence that contains the question and paragraph separated by a [SEP] token. MRCタスクでは、トランスフォーマーモデルは、[SEP]トークンで区切られた質問と段落を含む単一のシーケンスを入力します。 0.66
Then the model introduces a start vector and an end vector. 次に、モデルが開始ベクトルと終了ベクトルを導入する。 0.88
The probability of each word being the start-word is calculated by taking a dot product between the final embedding of the word and the start vector, followed by a softmax over all the words. 各単語がスタートワードである確率は、単語の最終的な埋め込みとスタートベクトルの間のドット積を取り、その後すべての単語にソフトマックスを付けて計算される。 0.77
The word with the highest probability value is considered. 確率値が最も高い単語が考慮される。 0.78
The architecture of transformer-based MRC model is shown in Figure 2. 変換器を用いたMRCモデルのアーキテクチャを図2に示す。 0.78
Figure 2: Transformer Architecture for MRC 図2: MRCのトランスフォーマーアーキテクチャ 0.74
We experimented with seven popular pre-trained transformer models that supports Arabic; camelbert-mix (Inoue et al , 2021), camelbert-ca (Inoue et al , 2021), mbert-cased (Devlin et al , 2019) , mbert-uncased (Devlin et al , 2019), AraELECTRA-generator (Antoun et al., 2021), AraELECTRA-discrimin ator (Antoun et al , 2021) and AraBERTv2 (Antoun et al , 2020). 我々は、アラビア語をサポートする7つの人気のある事前学習トランスフォーマーモデル(Inoue et al , 2021), camelbert-ca (Inoue et al , 2021), mbert-cased (Devlin et al , 2019), mbert-uncased (Devlin et al , 2019), AraELECTRA-generator (Antoun et al., 2021), AraELECTRA-discrimin ator (Antoun et al , 2021), AraBERTv2 (Antoun et al , 2020)を実験した。 0.91
These models are available in HuggingFace model hub (Wolf et al , 2020). これらのモデルはHuggingFaceモデルハブ(Wolf et al , 2020)で利用可能だ。 0.82
For all the experiments we used a batchsize of eight, Adam optimiser with learning rate 2e−5, and a linear learning rate warm-up over 10% of the training data. すべての実験で8つのバッチサイズ、学習率2e−5のadam optimiserを使い、トレーニングデータの10%以上をリニアラーニングレートウォームアップしました。 0.71
During the training process, the parameters of the transformer model, as well as the parameters of the subsequent layers, were updated. トレーニングプロセス中、トランスモデルのパラメータと、その後のレイヤのパラメータが更新された。 0.53
The models were trained using only training data. モデルはトレーニングデータのみを使用して訓練された。 0.68
All the models were trained for five epochs. 全てのモデルは5つのエポックで訓練された。 0.64
For some of the experiments, we used an Nvidia GeForce RTX 2070 GPU, whilst for others we used a GeForce RTX 3090 GPU. いくつかの実験ではNvidia GeForce RTX 2070 GPUを使用し、他の実験ではGeForce RTX 3090 GPUを使用しました。 0.92
This was purely based on the availability of the hardware and it was not a methodological decision. これは純粋にハードウェアの可用性に基づいており、方法論的な決定ではなかった。 0.72
We further used following fine-tuning strategies to improve the performance. さらに、パフォーマンスを改善するための微調整戦略も使いました。 0.55
4.1. Ensemble Learning Ensemble learning is a popular technique in machine learning, where different machine learning models contribute to a single solution. 4.1. Ensemble Learning Ensemble Learningは、さまざまな機械学習モデルがひとつのソリューションに寄与するマシンラーニングにおいて、一般的なテクニックである。 0.56
As different machine learning algorithms tend to learn differently, the final predictions each one of them provides can be slightly different. 異なる機械学習アルゴリズムが異なる方法で学習する傾向があるため、各機械学習アルゴリズムが提供する最終的な予測はわずかに異なる。 0.78
However, they have the potential to contribute to the final output with ensemble learning. しかし、彼らはアンサンブル学習で最終的な成果に貢献する可能性がある。 0.60
Usually, 普通は 0.57
英語(論文から抽出)日本語訳スコア
ensemble learning provides better results compared to single models (Sagi and Rokach, 2018). アンサンブル学習は単一モデル(sagi and rokach, 2018)よりも優れた結果を提供する。 0.75
Transformer models that we used as the base model are prone to the random seed (Hettiarachchi and Ranasinghe, 2020). 私たちがベースモデルとして使用したトランスフォーマーモデルは、ランダムなシード(Hettiarachchi と Ranasinghe, 2020)に傾向がある。 0.72
The same architecture can provide different results for different random seeds (Uyangodage et al , 2021). 同じアーキテクチャは異なるランダムな種に対して異なる結果を与えることができる(Uyangodage et al , 2021)。 0.71
To avoid the impact of this, we performed self ensemble. この影響を避けるため、私たちは自己アンサンブルを行いました。 0.62
We trained the same architecture using five different random seeds and ensembled the output files using Algorithm 1. 我々は5つの異なるランダムシードを用いて同じアーキテクチャを訓練し、アルゴリズム1を用いて出力ファイルをアンサンブルした。 0.59
Algorithm 1 Ensemble Learning Algorithm for MRC アルゴリズム1 mrcのためのアンサンブル学習アルゴリズム 0.80
R ← all results files ri ← i(th) result file Q ← all questions qj ← j(th) question A ← all answers ai,j ← answer for question j in files file i aj ← all unique answers for question j in all files aj,k ← answer k from unique answers for question j ai,j,m ← answer m from file i to question j answerj,k ← temporary score repeat 結果ファイル ri,k,m ] 結果ファイル ri,i(th) 結果ファイル q.j.i(th) 質問ファイル q.j.i.j(th) 質問ファイル a.j. 質問ファイル内の質問jに対する回答 aj,k. 質問jのユニークな回答 aj,k. 回答 k from unique answers for question j ai,j,m. 回答 m from file i to question j answerj,k. 一時的なスコア繰り返し。 0.59
for each aj,k ∈ aj do それぞれ aj,k ∈ aj do に対して 0.87
repeat for each ai,j,m ∈ ri do if ai,j,m = aj,k then 繰り返す それぞれの ai,j,m ∈ ri が ai,j,m = aj,k であれば、 0.81
average(scoreai,j,m, scoreaj,k ) average(scoreai,j,m, scoreaj,k) 0.42
scorej,k answerj,k ← aj,k, scorej,k scorej,k answerj,k , aj,k, scorej,k 0.42
← end if end for ← 終われば 終わりだ 0.55
until all items iterated in R final answers ← answerj,k すべての項目が R の最終回答に反復されるまでは 0.79
end for until all unique answers iterated in for question j answers ← sort(answers) repeat 終わりだ 全ての独特な答えが 質問 j で繰り返されるまで ソート(答え)が繰り返す 0.68
for each qj ∈ Q do 各 qj ∈ Q do に対して 0.83
repeat for each answerj,k ∈ f inalanswers 繰り返す それぞれの回答j,k ∈ f に対して 0.73
do rankj,k ← assign rank やれ rankj,k はランクを割り当てる 0.72
end for until iterate all answers for question j 終わりだ 質問jの答えを繰り返すまで 0.57
end for until iterate all questions iterated in Q 終わりだ qで繰り返される全ての質問を繰り返すまで 0.57
4.2. Transfer Learning One limitation of the QRCD dataset is that training set only contains 710 annotated QnA pairs and as a result transformer models would find it difficult to properly fine-tune their weights in the training process. 4.2. 移行学習 QRCDデータセットの制限のひとつは、710の注釈付きQnAペアのみを含むトレーニングセットであり、結果としてトランスフォーマーモデルがトレーニングプロセスで重みを適切に調整することが難しくなることだ。 0.58
A common practice to overcome this is to utilise transfer learning. これを克服するための一般的なプラクティスは、転校学習を活用することだ。 0.55
The main idea of transfer learning is that we train a machine learning model on a resource rich setting, save the weights of the model and when we トランスファー学習の主な考え方は、リソース豊富な設定で機械学習モデルをトレーニングし、モデルの重みを節約し、いつトレーニングするかということです。 0.74
initialise the training process for a lower resource setting, start with the saved weights from the resource rich setting . より低いリソース設定のトレーニングプロセスを初期化し、リソース豊富な設定から保存された重みから始める。 0.80
Transfer learning has improved results for many NLP tasks such as offensive language identification (Ranasinghe and Zampieri, 2020), machine translation (Nguyen and Chiang, 2017) and named entity recognition (Lee et al , 2018). トランスファーラーニングは、攻撃的な言語識別(RanasingheとZampieri、2020年)、機械翻訳(NguyenとChiang、2017年)、エンティティ認識(Lee et al、2018年)など、多くのNLPタスクの結果を改善した。
訳抜け防止モード: トランスファーラーニングは、攻撃的言語識別(Ranasinghe, Zampieri, 2020)など多くのNLPタスクの結果を改善した。 機械翻訳(Nguyen and Chiang, 2017)とエンティティ認識(Lee et al, 2018)。
0.73
For this task, we first trained a transformer-based MRC model on SOQAL dataset which contained more training data compared to the QRCD dataset as mentioned in Section 3. そこで本研究では,第3節で述べたようなqrcdデータセットよりも多くのトレーニングデータを含むsoqalデータセット上で,トランスフォーマティブベースのmrcモデルを最初にトレーニングした。 0.66
Then when we started the training for QRCD dataset we started from the saved weights from the SOQAL dataset. そして、QRCDデータセットのトレーニングを開始すると、SOQALデータセットから保存した重みから始めました。 0.71
5. Results and Discussion In this section, we report the experiments we conducted and their results. 5. 結果と議論 本稿では,実験結果と実験結果について報告する。 0.72
As advised by the task organisers, we used partial Reciprocal Rank (pRR) score to measure the model performance. タスクオーガナイザがアドバイスしたように,部分的相互ランクスコア(pRR)を用いてモデル性能を測定した。 0.75
It is a variant of the traditional Reciprocal Rank evaluation metric that considers partial matching. これは、部分マッチングを考える伝統的な相互ランク評価指標の変種である。 0.73
We also report Exact Match (EM), and F1@1 in the results tables, which are evaluation metrics applied only to the top predicted answer. また, 結果表にExact Match (EM) と F1@1 を記載し, 最上位の回答にのみ適用される評価指標である。 0.71
The EM metric is a binary measure that rewards a system only if the top predicted answer matches exactly one of the gold answers. EMメトリックは、最上位の予測された答えが金の答えのちょうど1つと一致する場合にのみ、システムに報酬を与える二進測度である。 0.68
In comparison, the F1@1 metric measures the token overlap between the top predicted answer and the best matching gold answer. 比較として、f1@1メトリックは、最上位の予測された回答と最も一致する金の回答の間のトークン重なりを測定する。 0.64
The reported results are for the dev set. 報告された結果は開発チーム向けです。 0.70
As can be seen in Table 2, camelbert-mix model produced the best results with 0.549 pRR value. 表2に示すように、camelbert-mixモデルは0.549 prrの値で最高の結果を生み出した。 0.69
This was closely followed by camelbert-ca and AraELECTRAdiscrimina tor. この後、camelbert-caとaraelectradiscrimina torが続いた。 0.55
Transformer models built specifically for Arabic generally outperformed multilingual models. アラビア語の多言語モデルに特化して作られたトランスフォーマーモデル。 0.58
Model AraELECTRA-discrimin ator モデル AraELECTRA-discrimin ator 0.54
AraELECTRA-generator アラエレクトラ発生器 0.33
camelbert-mix camelbert-ca mbert-cased mbert-uncased AraBERTv2 camelbert-mix camelbert-ca mbert-cased mbert-uncased AraBERTv2 0.24
pRR 0.516 0.355 0.549 0.535 0.425 0.440 0.501 pRR 0.516 0.355 0.549 0.535 0.425 0.440 0.501 0.23
EM F1@1 0.495 0.303 0.324 0.339 0.193 0.529 0.516 0.119 0.405 0.321 0.424 0.220 0.294 0.472 EM F1@1 0.495 0.303 0.324 0.339 0.193 0.529 0.516 0.119 0.405 0.321 0.424 0.220 0.294 0.472 0.23
Table 2: Results of different transformer models without ensemble learning or transfer-learning. 表2: アンサンブル学習やトランスファー学習のない異なるトランスフォーマーモデルの結果。 0.73
Column pRR shows the partial Reciprocal Rank score, Column EM shows results for exact match and Column F1@1 shows F1@1 score. カラムpRRは部分的な相互ランクスコアを示し、カラムEMは正確なマッチの結果を示し、カラムF1@1はF1@1スコアを示す。 0.67
The top three results are highlighted in Bold. 上位3つの結果は太字でハイライトされる。 0.65
To answer our RQ1, we performed self ensemble learning. RQ1に答えるために,自己アンサンブル学習を行った。 0.72
Table 3 shows the results of different models with results ensemble. 表3は、結果が一致した異なるモデルの結果を示しています。 0.65
Even though there was a slight improvement in AraELECTRA-discrimin ator, the overall impact for the results from the ensemble was very low. AraELECTRA-discrimin atorはわずかに改善されたが、アンサンブルの結果に対する全体的な影響は非常に低かった。 0.78
And we noticed that some of the models had performed less when using ensemble. そして、いくつかのモデルではアンサンブルの使用でパフォーマンスが低かったことに気付きました。 0.44
However, the results were stable compared to the single models. しかし、結果は単一モデルと比較して安定であった。 0.77
Therefore, we したがって我々は 0.85
英語(論文から抽出)日本語訳スコア
used self ensemble learning even though it did not contribute to improving the results. 結果の改善には貢献しなかったが、自己学習を使用した。 0.77
With these findings, we answer our RQ1, ensemble models do not provide better results compared to single models; however, they provide more consistent results. これらの結果から,RQ1では単一モデルよりもアンサンブルモデルの方がよい結果が得られないが,より一貫性のある結果が得られる。 0.78
Model AraELECTRA-discrimin ator モデル AraELECTRA-discrimin ator 0.54
AraELECTRA-generator アラエレクトラ発生器 0.33
camelbert-mix camelbert-ca mbert-cased mbert-uncased AraBERTv2 camelbert-mix camelbert-ca mbert-cased mbert-uncased AraBERTv2 0.24
pRR 0.528 0.364 0.520 0.495 0.438 0.424 0.475 pRR 0.528 0.364 0.520 0.495 0.438 0.424 0.475 0.23
EM F1@1 0.500 0.321 0.335 0.128 0.497 0.303 0.239 0.467 0.417 0.220 0.399 0.220 0.239 0.436 EM F1@1 0.500 0.321 0.335 0.128 0.497 0.303 0.239 0.467 0.417 0.220 0.399 0.220 0.239 0.436 0.23
Table 3: Results of different transformer models with self ensemble learning. 表3: セルフアンサンブル学習による異なるトランスフォーマーモデルの結果 0.70
Column pRR shows the partial Reciprocal Rank score, Column EM shows results for exact match and Column F1@1 shows F1@1 score. カラムpRRは部分的な相互ランクスコアを示し、カラムEMは正確なマッチの結果を示し、カラムF1@1はF1@1スコアを示す。 0.67
The top three results are highlighted in Bold. 上位3つの結果は太字でハイライトされる。 0.65
To answer our RQ2, we performed transfer learning from SOQAL (Mozannar et al , 2019) to QRCD dataset as mentioned in Section 4. RQ2に答えるために、第4節で述べたように、SOQAL(Mozannar et al , 2019)からQRCDデータセットへの移行学習を行った。 0.77
We only conducted the experiments for the best model from the self ensemble setting. 自己アンサンブル設定から最適なモデルの実験のみを行った。 0.62
As can be seen in the results in Table 4, transfer learning improved the results for AraELECTRA-discrimin ator. 表4に示すように、転送学習はAraELECTRA-discrimin atorの結果を改善した。 0.65
Without transfer learning, AraELECTRA-discrimin ator scored only 0.528 pRR, while with transfer learning, it provided 0.616 pRR. トランスファーラーニングなしでは、AraELECTRA-discrimin atorは0.528 pRRしか獲得できず、トランスファーラーニングでは0.616 pRRであった。 0.53
We did not observe improvements in other transformer models. 他の変圧器モデルの改良は観測しなかった。 0.74
However, the 0.616 pRR we got with performing transfer learning with AraELECTRAdiscrimina tor was the best result for the dev set. しかし、AraELECTRAdiscrimina torで転送学習を行うことで得られる0.616 pRRは、開発セットにとって最良の結果であった。 0.71
With this, we answer our RQ2, other Arabic MRC resources such as SOQAL (Mozannar et al , 2019) can be used to improve the results for Qur’an MRC. これにより、我々のRQ2、SOQAL(Mozannar et al , 2019)のような他のアラビア語のMRCリソースは、Qur’an MRCの結果を改善するために使用できる。 0.79
We believe that this finding will be important to the researchers working on low-resource MRC datasets. この発見は、低リソースのMRCデータセットに取り組んでいる研究者にとって重要だと考えています。 0.61
Model AraELECTRA-discrimin ator モデル AraELECTRA-discrimin ator 0.54
camelbert-mix AraBERTv2 camelbert-mix AraBERTv2 0.29
pRR 0.616 0.520 0.430 pRR 0.616 0.520 0.430 0.27
EM F1@1 0.609 0.394 0.494 0.284 0.138 0.412 EM F1@1 0.609 0.394 0.494 0.284 0.138 0.412 0.27
Table 4: Results of different transformer models after transfer learning. 表4:転送学習後のトランスフォーマーモデルの異なる結果。 0.78
Column pRR shows the partial Reciprocal Rank score, Column EM shows results for exact match and Column F1@1 shows F1@1 score. カラムpRRは部分的な相互ランクスコアを示し、カラムEMは正確なマッチの結果を示し、カラムF1@1はF1@1スコアを示す。 0.67
Based on the results of the dev set, we selected three models for the final submission; camelbert-mix with ensemble learning but without transfer learning, camelbert-mix with transfer learning and ensemble learning and AraELECTRA-discrimin ator with transfer learning and ensemble learning. 開発セットの結果から,トランスファー学習を伴うラクダバート・ミックス,トランスファー学習とアンサンブル学習を伴うラクダベルト・ミックス,トランスファー学習とアンサンブル学習を伴うAraELECTRA-discrimin atorの3つのモデルを選択した。
訳抜け防止モード: 開発セットの結果に基づいて,最終提出に3つのモデルを選択した。 しかし、転校学習がなければ、camelbert - 転校学習と混ざり合う and ensemble learning and araelectra - 転送学習とアンサンブル学習を備えた判別子。
0.76
Table 5 shows the results that the organisers provided on the test set for our submitted models. 表5は、提案したモデルのテストセットに提供されるオーガナイザの結果を示しています。 0.72
AraELECTRA-discrimin ator performed best in the test set too. AraELECTRA-discrimin atorはテストセットでも最高に動作した。 0.64
The camelbert-mix mode without transfer トランスファーのないcamelbert-mixモード 0.73
Model TL EN pRR % ! モデル TL EN pRR %! 0.61
0.290 ! ! 0.290 ! ! 0.39
0.408 AraELECTRA-discrimin ator ! 0.408 araelectra-discrimin ator ! 0.27
! 0.495 camelbert-mix camelbert-mix ! 0.495 camelbert-mix camelbert-mix 0.32
EM F1@1 0.258 0.084 0.138 0.390 0.476 0.226 EM F1@1 0.258 0.084 0.138 0.390 0.476 0.226 0.27
Table 5: Results of different transformer models on the test set. 表5: テストセット上の異なるトランスフォーマーモデルの結果。 0.71
Column TL implies whether we performed transfer learning or not and the Column EN shows whether we performed ensemble learning. カラム TL は、転送学習を行ったかどうかを示し、カラム EN は、アンサンブル学習を行ったかどうかを示す。 0.59
Column pRR shows the partial Reciprocal Rank score, Column EM shows results for exact match and Column F1@1 shows F1@1 score. カラムpRRは部分的な相互ランクスコアを示し、カラムEMは正確なマッチの結果を示し、カラムF1@1はF1@1スコアを示す。 0.67
learning has decreased its performance from 0.549 to 0.290, which is a 47% decrease. 学習のパフォーマンスは0.549から0.290に低下し、これは47%減少している。 0.65
However, the models with transfer learning have performed comparatively high, confirming our answer to the RQ2. しかし, 転校学習モデルは比較的高い成績を示し, rq2に対する回答を確認している。 0.78
6. Conclusion In this paper, we have presented the system submitted by the DTW team to the Qur’an QA 2022 shared task in the 5th Workshop on Open-Source Arabic Corpora and Processing Tools. 結論 本稿では,第5回アラビア語コーパスと処理ツールに関するワークショップにおいて,dtw チームから qur’an qa 2022 の共有タスクに提出されたシステムを紹介する。 0.48
We have shown that AraELECTRA-discrimin ator with transfer learning from an Arabic MRC dataset is the most successful transformer model from several transformer models we experimented with. アラビア語のmrcデータセットからトランスファー学習を行うaraelectra-discrimin atorは,我々が実験したトランスフォーマーモデルの中で最も成功したトランスフォーマーモデルであることを示した。 0.64
Our best system scored 0.495 pRR in the test set. 私たちのベストシステムはテストセットで0.495 pRRを獲得しました。 0.57
With our RQ1, we showed that transformer models based on self ensemble provided stable results than single models in Qur’an QA task. rq1では,自己アンサンブルに基づくトランスフォーマーモデルが,qur’an qaタスクにおいて単一モデルよりも安定した結果を得た。 0.69
Revisiting our RQ2, we showed that transfer learning could be used to improve the MRC results of the Qur’an. RQ2を再検討した結果,転送学習はQur’anの結果を改善するために有効であることがわかった。 0.70
We believe that this finding would pave the way to enhance MRC in many low-resource domains. この発見は、多くの低リソースドメインにおいてmrcを強化する道を開くと信じています。 0.49
Our code, software and the pre-trained models have been made available freely to the researchers working on similar problems. 私たちのコード、ソフトウェア、トレーニング済みのモデルは、同様の問題に取り組んでいる研究者に無料で提供されています。 0.60
In future work, we would like to explore more to transfer learning. 今後の作業では、さらに学習の移行を探求したいと考えています。 0.57
We will be exploring cross-lingual transfer learning with larger English MRC datasets such as SQuAD, as cross-lingual transfer learning has shown splendid results in many NLP tasks (Ranasinghe et al , 2021). 我々は,多くのNLPタスクにおいて,SQuADのようなより大きな英語MRCデータセットを用いた言語間移動学習を検討中である(Ranasinghe et al , 2021)。 0.78
Furthermore we will be exploring zero-shot and few-shot learning, which could benefit a multitude of low-resource languages. さらに、ゼロショットと少数ショットの学習も検討する予定です。
訳抜け防止モード: さらに、ゼロ - ショットと少数 - ショット学習を探求する予定です。 多数の低リソース言語にメリットがあるかも知れません。
0.51
7. Acknowledgements This project was partially funded by the University of Wolverhampton’s RIF4 Research Investment Funding provided for the Responsible Digital Humanities lab (RIGHT). 7.認定 このプロジェクトはウルヴァーハンプトン大学のrif4研究投資資金によって部分的に資金提供され、責任あるデジタル人文科学研究所(right)に提供された。 0.70
We would like to thank the Qur’an QA 2022 shared task organisers for running this interesting shared task and for replying promptly to all our inquiries. qur’an qa 2022 shared task organisers この興味深い共有タスクを実行し、我々の問い合わせに迅速に返信してくれたことに感謝します。 0.75
Furthermore, we thank the anonymous OSACT 2022 reviewers for their insightful feedback. さらに、匿名のosact 2022レビュアーの洞察に富んだフィードバックに感謝します。 0.66
英語(論文から抽出)日本語訳スコア
8. References Abadani, N., Mozafari, J., Fatemi, A., Nematbakhsh, M. A., and Kazemi, A. (2021). 8.参考文献 Abadani, N., Mozafari, J., Fatemi, A., Nematbakhsh, M. A., Kazemi, A. (2021)。 0.83
Parsquad: Machine translated squad dataset for persian question answering. parsquad: ペルシャ質問応答のための機械翻訳スクワッドデータセット。 0.67
In 2021 7th International Conference on Web Research (ICWR), pages 163–168. 2021年、第7回国際ウェブ研究会議(icwr)163-168頁。 0.81
Antoun, W., Baly, F., and Hajj, H. (2020). Antoun, W., Baly, F. and Hajj, H. (2020)。 0.86
AraBERT: Transformer-based model for Arabic language understanding. AraBERT: アラビア語理解のためのトランスフォーマーベースのモデル。 0.69
In Proceedings of the 4th Workshop on Open-Source Arabic Corpora and Processing Tools, with a Shared Task on Offensive Language Detection, pages 9–15, Marseille, France, May. 第4回アラビア語コーポラと処理ツールに関するワークショップの議事録では,攻撃的言語検出に関する共通タスクとして,マルセイユ,フランス,5月9-15ページが紹介されている。 0.61
European Language Resource Association. 欧州言語資源協会会員。 0.86
Antoun, W., Baly, F., and Hajj, H. Antoun, W., Baly, F., Hajj, H。 0.36
(2021). AraELECTRA: Pre-training text discriminators for Arabic language understanding. (2021). AraELECTRA:アラビア語理解のための事前学習テキスト識別装置。 0.53
In Proceedings of the Sixth Arabic Natural Language Processing Workshop, pages 191–195, Kyiv, Ukraine (Virtual), April. 第6回アラビア語自然言語処理ワークショップの議事録、191-195ページ、キエフ、ウクライナ(仮想)、4月。 0.71
Association for Computational Linguistics. Baradaran, R., Ghiasi, R., and Amirkhani, H. (2022). 計算言語学会会員。 Baradaran, R., Ghiasi, R., Amirkhani, H. (2022)。 0.64
A survey on machine reading comprehension systems. 機械読解システムに関する調査研究 0.58
Natural Language Engineering, page 1–50. 自然言語工学、1-50頁。 0.69
Charniak, E., Altun, Y., Braz, R. d. Charniak, E., Altun, Y., Braz, R. d. 0.46
S., Garrett, B., Kosmala, M., Moscovich, T., Pang, L., Pyo, C., Sun, Y., Wy, W., Yang, Z., Zeller, S., and Zorn, L. (2000). S., Garrett, B., Kosmala, M., Moscovich, T., Pang, L., Pyo, C., Sun, Y., Wy, W., Yang, Z., Zeller, S., Zorn, L. (2000)。
訳抜け防止モード: S., Garrett, B., Kosmala, M., Moscovich T,Pang,L.,Pyo,C.,Sun Y, Wy, W., Yang, Z., Zeller, S. そしてZorn , L. (2000)。
0.79
Reading comprehension programs In Proin a statistical-language -processing class. 統計的言語処理クラスにおける理解プログラムの読解 0.73
ceedings of the 2000 ANLP/NAACL Workshop on Reading Comprehension Tests as Evaluation for Computer-Based Language Understanding SytemsVolume 6, ANLP/NAACL-ReadingCo mp ’00, page 1–5, USA. 2000 ANLP/NAACL Workshop on Reading Comprehension Tests as Evaluation for Computer-Based Language Understanding SytemsVolume 6, ANLP/NAACL-ReadingCo mp ’00, USA, page 1–5。 0.45
Association for Computational Linguistics. Dasigi, P., Lo, K., Beltagy, I., Cohan, A., Smith, N. A., and Gardner, M. (2021). 計算言語学会会員。 Dasigi, P., Lo, K., Beltagy, I., Cohan, A., Smith, N. A., Gardner, M. (2021)。 0.67
A dataset of informationseeking questions and answers anchored in research papers. 研究論文にまとめられた情報探索質問と回答のデータセット。 0.76
In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4599–4610, Online, June. 2021年北米計算言語学会(英語版)の国際会議(英語版)において、Human Language Technologies, page 4599–4610, June。 0.74
Association for Computational Linguistics. Devlin, J., Chang, M. 計算言語学会会員。 Devlin, J., Chang, M。 0.67
-W. , Lee, K., and Toutanova, (2019). -W。 Lee, K, and Toutanova, (2019)。 0.60
BERT: Pre-training of deep bidirecK. BERT:Deep bidirecKの事前トレーニング。 0.84
tional transformers for language understanding. 言語理解のためのオプショントランスフォーマー。 0.63
In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171– 4186, Minneapolis, Minnesota, June. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), page 4171–4186, Minneapolis, Minnesota, June (英語) 0.44
Association for Computational Linguistics. d’Hoffschmidt, M., Belblidia, W., Heinrich, Q., Brendl´e, T., and Vidal, M. (2020). 計算言語学会会員。 D’Hoffschmidt, M., Belblidia, W., Heinrich, Q., Brendl ́e, T., Vidal, M. (2020)。 0.70
FQuAD: French question answering dataset. FQuAD: フランスの質問応答データセット。 0.84
In Findings of the Association for Computational Linguistics: EMNLP 2020, pages 1193–1208, Online, November. en:association for computational linguistics: emnlp 2020, pages 1193–1208, online, novemberを参照。 0.76
Association for Computational Linguistics. Efimov, P., Chertok, A., Boytsov, L., and Braslavski, P. (2020). 計算言語学会会員。 Efimov, P., Chertok, A., Boytsov, L., and Braslavski, P. (2020)。 0.69
Sberquad – russian reading comprehen- スベルクワッド(ロシア語: Sberquad) 0.46
sion dataset: Description and analysis. sionデータセット: 記述と分析。 0.81
In Avi Arampatzis, et al , editors, Experimental IR Meets Multilinguality, Multimodality, and Interaction, pages 3– 15, Cham. Avi Arampatzis, et al , editors, Experimental IR Meets Multilinguality, Multimodality, and Interaction, pages 3–15 Cham。
訳抜け防止モード: avi arampatzis, et al, editors, experimental ir meets multilinguality, multimodality, and interaction (英語) 3-15頁、チャム。
0.65
Springer International Publishing. Springer International Publishing(英語) 0.71
Giorgi, S., Zavarella, V., Tanev, H., Stefanovitch, N., Hwang, S., Hettiarachchi, H., Ranasinghe, T., Kalyan, V., Tan, P., Tan, S., Andrews, M., Hu, T., Stoehr, N., Re, F. I., Vegh, D., Atzenhofer, D., Curtis, B., and H¨urriyeto˘glu, A. (2021). Giorgi, S., Zavarella, V., Tanev, H., Stefanovitch, N., Hwang, S., Hettiarachchi, H., Ranasinghe, T., Kalyan, V., Tan, P., Tan, S., Andrews, M., Hu, T., Stoehr, N., Re., F.I., Vegh, D., Atzenhofer, D., Curtis, B., H surriyeto sglu, A. (2021)。
訳抜け防止モード: giorgi, s., zavarella, v., tanev, h. stefanovitch, n., hwang, s., hettiarachchi, h. raasinghe, t., kalyan, v., tan, p. tan, s., andrews, m., hu, t. stoehr, n., re, f. i., vegh, d. アツェンホーファー、d.、カーティス、b.、h.s.a.(2021年)。
0.67
Discovering black lives matter events in the United States: Shared task 3, CASE 2021. アメリカ合衆国における黒人の生活が重要な出来事を発見: 共有タスク3、ケース2021。 0.65
In Proceedings of the 4th Workshop on Challenges and Applications of Automated Extraction of Socio-political Events from Text (CASE 2021), pages 218–227, Online, August. 第4回社会政治イベントの自動抽出の課題と応用に関するワークショップ(ケース2021,ページ218-227,オンライン,8月)の議事録 0.74
Association for Computational Linguistics. Hermann, K. M., Kocisky, T., Grefenstette, E., Espeholt, L., Kay, W., Suleyman, M., and Blunsom, P. (2015). 計算言語学会会員。 Hermann, K. M., Kocisky, T., Grefenstette, E., Espeholt, L., Kay, W., Suleyman, M., and Blunsom, P. (2015)。 0.70
Teaching machines to read and comprehend. 機械に読み書きを教える。 0.53
In C. Cortes, et al , editors, Advances in Neural Information Processing Systems, volume 28. C. Cortes, et al , editors, Advances in Neural Information Processing Systems, Volume 28。
訳抜け防止モード: c. cortes, et al, editors, advances in neural information processing systems (英語) 第28巻。
0.74
Curran Associates, Inc. Curran Associates, Inc. 0.42
Hettiarachchi, H. and Ranasinghe, T. Hettiarachchi, H. and Ranasinghe, T。 0.44
InfoMiner at WNUT-2020 task 2: Transformer-based In Procovid-19 informative tweet extraction. InfoMiner at WNUT-2020 Task 2: Transformer-based In Procovid-19 (英語) 0.36
ceedings of the Sixth Workshop on Noisy Usergenerated Text (W-NUT 2020), pages 359–365, Online, November. 第6回騒がしいユーザー生成テキストに関するワークショップ(w-nut 2020),ページ359-365, online, november。 0.78
Association for Computational Linguistics. (2020). 計算言語学会会員。 (2020). 0.47
Hirschman, L., Light, M., Breck, E., and Burger, J. D. (1999). Hirschman, L., Light, M., Breck, E., and Burger, J. D. (1999)。 0.91
Deep read: A reading comprehension system. deep read: 読書理解システム。 0.66
ACL ’99, page 325–332, USA. acl ’99, pp. 325–332, usa. (英語) 0.51
Association for Computational Linguistics. Inoue, G., Alhafni, B., Baimukan, N., Bouamor, H., and Habash, N. (2021). 計算言語学会会員。 井上, G., Alhafni, B., Baimukan, N., Bouamor, H., Habash, N. (2021)。 0.64
The interplay of variant, size, and task type in Arabic pre-trained language models. アラビア語の事前訓練された言語モデルにおける変種、サイズ、タスクタイプの相互作用。 0.65
In Proceedings of the Sixth Arabic Natural Language Processing Workshop, pages 92–104, Kyiv, Ukraine (Virtual), April. 第6回アラビア語自然言語処理ワークショップの議事録、92-104ページ、ウクライナのキエフ(仮想)、4月。 0.70
Association for Computational Linguistics. Jayakody, J. A. T. K., Gamlath, T. S. K., Lasantha, W. A. N., Premachandra, K. M. K. P., Nugaliyadde, A., and Mallawarachchi, Y. (2016). 計算言語学会会員。 Jayakody, J. A. T. K., Gamlath, T. S. K., Lasantha, W. A. N., Premachandra, K. M. K. P., Nugaliyadde, A., Mallawarachchi, Y. (2016)。 0.50
“mahoshadha”, the sinhala tagged corpus based question answering system. マホシャハ(mahoshadha)は、シンハラのタグ付きコーパスによる質問応答システム。 0.48
In Suresh Chandra Satapathy et al , editors, Proceedings of First International Conference on Information and Communication Technology for Intelligent Systems: Volume 1, pages 313–322, Cham. Suresh Chandra Satapathy et al , editors, Proceedings of First International Conference on Information and Communication Technology for Intelligent Systems: Volume 1, page 313–322, Cham. 0.43
Springer International Publishing. Springer International Publishing(英語) 0.71
Lan, Z., Chen, M., Goodman, S., Gimpel, K., Sharma, P., and Soricut, R. (2020). Lan, Z., Chen, M., Goodman, S., Gimpel, K., Sharma, P., Soricut, R. (2020)。 0.82
Albert: A lite bert for self-supervised learning of language representations. albert: 言語表現の自己教師あり学習のためのlite bert。 0.77
In International Conference on Learning Representations. 学習表現に関する国際会議に参加。 0.79
Lee, J. Y., Dernoncourt, F., and Szolovits, P. (2018). Lee, J. Y., Dernoncourt, F. and Szolovits, P. (2018)。 0.47
Transfer learning for named-entity recognition with neural networks. ニューラルネットワークを用いた名前付き認識のための伝達学習 0.69
In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May. 第11回言語資源評価国際会議(lrec 2018)第11回国際会議(lrec 2018)の開催にあたって 0.57
英語(論文から抽出)日本語訳スコア
European Language Resources Association (ELRA). 欧州言語資源協会 (ELRA) の略。 0.77
Lehnert, W. G. (1977). lehnert, w. g. (1977) を参照。 0.61
The process of question an- 質問 an のプロセス- 0.77
swering. Yale University. 揺るぎます イェール大学教授。 0.45
Liu, S., Zhang, X., Zhang, S., Wang, H., and Zhang, W. (2019). Liu, S., Zhang, X., Zhang, S., Wang, H., and Zhang, W. (2019)。 0.87
Neural machine reading comprehension: Methods and trends. ニューラルマシン読解: 方法と傾向。 0.57
Applied Sciences, 9(18). 応用科学、9(18)。 0.67
Malhas, R. and Elsayed, T. (2020). Malhas, R. and Elsayed, T. (2020)。 0.46
Ayatec: Building a reusable verse-based test collection for arabic question answering on the holy qur’an. Ayatec: アラビア語の質問に対する再利用可能な詩ベースのテストコレクションを構築します。 0.75
ACM Trans. Asian Low-Resour. ACMトランス。 アジア低地。 0.68
Lang. Inf. Process. ラング インフ。 プロセス。 0.48
, 19(6), oct. の19(6)であった。 0.64
Malhas, R., Mansour, W., and Elsayed, T. Malhas, R., Mansour, W., and Elsayed, T。 0.80
(2022). Qur’an QA 2022: Overview of the first shared task on question answering over the holy qur’an. (2022). qur’an qa 2022: the holy qur’anに関する質問応答に関する最初の共有タスクの概要。 0.60
In Proceedings of the 5th Workshop on Open-Source Arabic Corpora and Processing Tools (OSACT5) at the 13th Language Resources and Evaluation Conference (LREC 2022). 第13回言語資源評価会議(lrec 2022)における第5回アラビア語コーポラおよび処理ツールに関するワークショップ(osact5)の議事録 0.71
Mozannar, H., Maamary, E., El Hajal, K., and Hajj, H. (2019). Mozannar, H., Maamary, E., El Hajal, K., and Hajj, H. (2019)。 0.87
Neural Arabic question answering. アラビア語の質問に答える。 0.54
In Proceedings of the Fourth Arabic Natural Language Processing Workshop, pages 108–118, Florence, Italy, August. 第4回アラビア語自然言語処理ワークショップの議事録108-118ページ,イタリア,フィレンツェ,8月。 0.78
Association for Computational Linguistics. Nguyen, T. Q. and Chiang, D. (2017). 計算言語学会会員。 nguyen, t. q. and chiang, d. (2017)。 0.58
Transfer learning across low-resource, related languages for neural machine translation. ニューラルマシン翻訳のための低リソース関連言語間の転送学習。 0.80
In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pages 296– 301, Taipei, Taiwan, November. 第8回国際自然言語処理会議(Volume 2: Short Papers, 296–301, Taipei, Taiwan, November)の開催報告 0.66
Asian Federation of Natural Language Processing. アジア自然言語処理連盟 0.53
Plum, A., Ranasinghe, T., Jones, S., Orasan, C., and Mitkov, R. (2022). Plum, A., Ranasinghe, T., Jones, S., Orasan, C., Mitkov, R. (2022)。 0.81
Biographical: A semisupervised relation extraction dataset. biographical: 半教師付き関係抽出データセット。 0.72
In Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval, Madrid, Spain. 第45回国際情報検索研究開発会議(acm sigir conference on research and development in information retrieval, madrid)で開催。 0.74
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
Rajpurkar, P., Zhang, J., Lopyrev, K., and Liang, P. (2016). Rajpurkar, P., Zhang, J., Lopyrev, K., and Liang, P. (2016)。 0.86
SQuAD: 100,000+ questions for machine comprehension of text. SQuAD: 機械によるテキスト理解のための10万以上の質問。 0.60
In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 2383–2392, Austin, Texas, November. 2016年の自然言語処理における経験的手法に関する会議の議題2383-2392ページ、テキサス州オースティン、11月。 0.68
Association for Computational Linguistics. Ranasinghe, T. and Hettiarachchi, H. (2020). 計算言語学会会員。 Ranasinghe, T. and Hettiarachchi, H. (2020)。 0.49
BRUMS at SemEval-2020 task 12: Transformer based multilingual offensive language identification in social the Fourteenth Workmedia. BRUMS at SemEval-2020 Task 12: Transformer based multilingual offensive language Identification in social the 14th Workmedia 0.42
shop on Semantic Evaluation, pages 1906–1915, Barcelona (online), December. セマンティック・アセスメント』、1906-1915頁、バルセロナ(オンライン)、12月。 0.49
International Committee for Computational Linguistics. 計算言語学国際委員会委員。 0.69
In Proceedings of Ranasinghe, T. and Zampieri, M. (2020). 訴訟の手続において Ranasinghe, T. and Zampieri, M. (2020)。 0.44
Multilingual offensive language identification with cross-lingual embeddings. 言語間埋め込みによる多言語攻撃言語識別 0.73
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 5838–5844, Online, November. 自然言語処理における経験的手法に関する2020年会議(emnlp)の議事録では、5838-5844ページがオンライン、11月である。
訳抜け防止モード: 自然言語処理における経験的手法に関する2020年会議(EMNLP)の開催報告 5838-5844、オンライン、11月。
0.71
Association for Computational Linguistics. Ranasinghe, T., Orasan, C., and Mitkov, R. (2021). 計算言語学会会員。 Ranasinghe, T., Orasan, C., Mitkov, R. (2021)。 0.65
An exploratory analysis of multilingual word-level quality estimation with cross-lingual transformers. 言語間トランスフォーマーを用いた多言語単語レベル品質推定の探索的解析 0.70
In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pages 434–440, Online, August. 第59回計算言語学会年次大会および第11回自然言語処理国際合同会議(第2巻:短い論文)の議事録において,ページ434-440, online, august。 0.73
Association for Computational Linguistics. Richardson, M., Burges, C. J., and Renshaw, E. (2013). 計算言語学会会員。 Richardson, M., Burges, C. J., Renshaw, E. (2013)。 0.68
MCTest: A challenge dataset for the open-domain machine comprehension of text. MCTest: テキストのオープンドメインマシン理解のための課題データセット。 0.82
In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pages 193–203, Seattle, Washington, USA, October. 2013年10月、ワシントン州シアトルの193–203ページで「自然言語処理における経験的方法に関する会議」が開催された。
訳抜け防止モード: 自然言語処理における経験的手法に関する2013年会議のまとめ シアトル、ワシントン、アメリカ、10月、193–203頁。
0.77
Association for Computational Linguistics. Riloff, E. and Thelen, M. 計算言語学会会員。 Riloff, E. and Thelen, M。 0.48
In Proceedings of (2000). 訴訟の手続において (2000). 0.41
A rule-based question answering system for reading comprehenthe 2000 ANLP/sion tests. 規則に基づく2000 anlp/sion テスト読解のための質問応答システム 0.80
NAACL Workshop on Reading Comprehension Tests as Evaluation for Computer-Based Language Understanding Sytems - Volume 6, ANLP/NAACLReadingCom p ’00, page 13–19, USA. NAACL Workshop on Reading Comprehension Tests as Evaluation for Computer-Based Language Understanding Sytems - Volume 6, ANLP/NAACLReadingCom p ’00, page 13–19, USA 0.48
Association for Computational Linguistics. Rouws, N. J., Vakulenko, S., and Katrenko, S. (2022). 計算言語学会会員。 Rouws, N. J., Vakulenko, S., and Katrenko, S. (2022)。 0.49
Dutch squad and ensemble learning for question answering from labour agreements. 労働協定からの質問応答のためのオランダ分隊とアンサンブル学習。 0.74
In Luis A. Leiva, et al , editors, Artificial Intelligence and Machine Learning, pages 155–169, Cham. Luis A. Leiva, et al , editors, Artificial Intelligence and Machine Learning, page 155–169, Cham.
訳抜け防止モード: luis a. leiva, et al, editors, artificial intelligence and machine learning (英語) 155-169頁。
0.66
Springer International Publishing. Springer International Publishing(英語) 0.71
Sagi, O. and Rokach, L. (2018). Sagi, O. and Rokach, L. (2018)。 0.48
Ensemble learning: A survey. Ensemble Learning: 調査。 0.65
WIREs Data Mining and Knowledge Discovery, 8(4):e1249. データマイニングと知識発見、8(4):e1249。 0.63
Suzuki, J., Sasaki, Y., and Maeda, E. (2002). Suzuki, J., Sasaki, Y. and Maeda, E. (2002)。 0.88
SVM answer selection for open-domain question answering. オープンドメイン質問応答のためのSVM応答選択 0.75
In COLING 2002: The 19th International Conference on Computational Linguistics. 2002年 - 第19回計算言語学国際会議開催。 0.69
Trischler, A., Wang, T., Yuan, X., Harris, J., Sor(2017). Trischler, A., Wang, T., Yuan, X., Harris, J., Sor(2017)。 0.83
doni, A., Bachman, P., and Suleman, K. In NewsQA: A machine comprehension dataset. doni, a., bachman, p., and suleman, k. in newsqa: a machine comprehensionデータセット。 0.77
Proceedings of the 2nd Workshop on Representation Learning for NLP, pages 191–200, Vancouver, Canada, August. 第2回nlp表現学習ワークショップ報告, 191-200ページ, バンクーバー, カナダ, 8月 0.62
Association for Computational Linguistics. Uyangodage, L., Ranasinghe, T., and Hettiarachchi, H. (2021). 計算言語学会会員。 Uyangodage, L., Ranasinghe, T., and Hettiarachchi, H. (2021)。 0.47
Transformers to fight the COVID-19 infodemic. 新型コロナウイルスのインフォデミックと戦うトランスフォーマー。 0.47
In Proceedings of the Fourth Workshop on NLP for Internet Freedom: Censorship, Disinformation, and Propaganda, pages 130–135, Online, June. The Proceedings of the Fourth Workshop on NLP for Internet Freedom: Censorship, Disinformation, and Propaganda, page 130–135, June (英語)
訳抜け防止モード: 第4回インターネット自由のためのNLPワークショップの開催にあたって : 検閲, 偽情報, プロパガンダ 130-135頁、オンライン。
0.73
Association for Computational Linguistics. Welbl, J., Liu, N. F., and Gardner, M. 計算言語学会会員。 Welbl, J., Liu, N. F., Gardner, M。 0.46
(2017). Crowdsourcing multiple choice science questions. (2017). 複数の選択科学の質問をクラウドソーシングする。 0.47
In Proceedings of the 3rd Workshop on Noisy Usergenerated Text, pages 94–106, Copenhagen, Denmark, September. 第3回「騒がしいユーザー生成テキストに関するワークショップ」第94-106ページ、デンマーク、コペンハーゲン、デンマーク、9月。 0.60
Association for Computational Linguistics. Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma, 計算言語学会会員。 Wolf, T., Debut, L., Sanh, V., Chaumond, J., Delangue, C., Moi, A., Cistac, P., Rault, T., Louf, R., Funtowicz, M., Davison, J., Shleifer, S., von Platen, P., Ma 0.47
英語(論文から抽出)日本語訳スコア
C. , Jernite, Y., Plu, J., Xu, C., Le Scao, T., Gugger, S., Drame, M., Lhoest, Q., and Rush, A. (2020). cだ Jernite, Y., Plu, J., Xu, C., Le Scao, T., Gugger, S., Drame, M., Lhoest, Q., Rush, A. (2020)。 0.73
Transformers: State-of-the-art natural language processing. Transformers: 最先端の自然言語処理。 0.80
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pages 38–45, Online, October. 自然言語処理における経験的手法に関する2020年会議の議事録:システムデモ、38-45ページ、オンライン、10月。 0.71
Association for Computational Linguistics. Yamada, I., Asai, A., Shindo, H., Takeda, H., and Matsumoto, Y. (2020). 計算言語学会会員。 山田、I、Asai、A.、真道、H.、竹田、H.、松本、Y.(2020年) 0.58
LUKE: Deep contextualized entity representations with entity-aware self-attention. luke: entity-aware self-attentionを使った、深いコンテキスト化されたエンティティ表現。 0.44
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 6442–6454, Online, November. 自然言語処理における経験的手法に関する2020年会議(emnlp)の議事録では、6442-6454ページがオンライン、11月である。
訳抜け防止モード: 自然言語処理における経験的手法に関する2020年会議(EMNLP)の開催報告 ページ6442-6454, Online , November.
0.80
Association for Computational Linguistics. Yen, S. 計算言語学会会員。 円、s。 0.46
-J. , Wu, Y. -j。 , Wu, Y。 0.56
-C. , Yang, J. -C。 、Yang、J。 0.49
-C. , Lee, Y. -S. -C。 リー、Y。 -S。 0.45
, Lee, C.J., and Liu, J. , Lee, C.J., and Liu, J。 0.48
-J. (2013). -j。 (2013). 0.57
A support vector machinebased context-ranking model for question answering. 質問応答のためのサポートベクターマシンに基づくコンテキストランキングモデル 0.76
Information Sciences, 224:77–87. 専門は情報科学、224:77-87。 0.38
Zeng, C., Li, S., Li, Q., Hu, J., and Hu, J. (2020). zeng, c., li, s., li, q., hu, j., hu, j. (2020)。 0.62
A survey on machine reading comprehension—tasks, evaluation metrics and benchmark datasets. 機械学習の理解に関する調査 - タスク、評価メトリクス、ベンチマークデータセット。 0.67
Applied Sciences, 10(21). 応用科学10(21)。 0.61
Zhang, Z., Wu, Y., Zhou, J., Duan, S., Zhao, H., and Wang, R. (2020). Zhang, Z., Wu, Y., Zhou, J., Duan, S., Zhao, H., Wang, R. (2020)。 0.82
Sg-net: Syntax-guided machine reading comprehension. sg-net: 構文案内機械の読み取り理解。 0.63
Proceedings of the AAAI Conference on Artificial Intelligence, 34(05):9636– 9643, Apr. AAAI Conference on Artificial Intelligence, 34(05):9636–9643, Apr 0.34
Zhang, Z., Yang, J., and Zhao, H. Zhang, Z., Yang, J., Zhao, H。 0.75
(2021). Retrospective reader for machine reading comprehension. (2021). 機械読解のためのレトロスペクティブリーダ。 0.56
Proceedings of the AAAI Conference on Artificial Intelligence, 35(16):14506–14514, May. aaai conference on artificial intelligence, 35(16):14506–14514, may(英語) 0.37
                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。