論文の概要、ライセンス

# (参考訳) BNLP:ベンガル語のための自然言語処理ツールキット [全文訳有]

BNLP: Natural language processing toolkit for Bengali language ( http://arxiv.org/abs/2102.00405v1 )

ライセンス: CC BY 4.0
Sagor Sarker(参考訳) BNLPは、トークン化、単語埋め込み、POSタグ付け、NERタグ付け機能を備えたBengali言語のためのオープンソースの言語処理ツールキットです。 BNLPは、モデルベースのトークン化、埋め込み、POSタグ付け、Bengali言語のNERタグ付けタスクを行うための高精度な事前トレーニングモデルを提供します。 BNLPプリトレーニングモデルは、Bengaliテキストトークン化、単語埋め込み、POSタグ付け、NERタグ付けタスクで重要な結果をもたらします。 BNLPは16Kダウンロード、119スター、31フォークのベンガル研究コミュニティで広く使用されています。 BNLPはhttps://github.com/s agorbrur/bnlp.comで入手できる。

BNLP is an open source language processing toolkit for Bengali language consisting with tokenization, word embedding, POS tagging, NER tagging facilities. BNLP provides pre-trained model with high accuracy to do model based tokenization, embedding, POS tagging, NER tagging task for Bengali language. BNLP pre-trained model achieves significant results in Bengali text tokenization, word embedding, POS tagging and NER tagging task. BNLP is using widely in the Bengali research communities with 16K downloads, 119 stars and 31 forks. BNLP is available at https://github.com/s agorbrur/bnlp.
公開日: Sun, 31 Jan 2021 07:56:08 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n a J 1 2 0 2 n a J 0.85
1 3 ] L C . 1 3 ] L C。 0.78
s c [ 1 v 5 0 4 0 0 sc [ 1 v 5 0 4 0 0 0.68
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
BNLP: NATURAL LANGUAGE PROCESSING TOOLKIT FOR BNLP:自然言語処理ツールキット 0.60
BENGALI LANGUAGE Sagor Sarker BENGALI言語 Sagor (複数形 Sagors) 0.52
Begum Rokeya University ベグム・ロキーア大学 0.57
Rangpur, Bangladesh バングラデシュのrangpur 0.57
brursagor@gmail.com brursagor@gmail.com 0.78
ABSTRACT BNLP is an open source language processing toolkit for Bengali language consisting with tokenization, word embedding, pos tagging, ner tagging facilities. ABSTRACT BNLPは、トークン化、単語埋め込み、posタグ付け、nerタグ付け機能を備えたBengali言語のためのオープンソースの言語処理ツールキットです。 0.76
BNLP provides pre-trained model with high accuracy to do model based tokenization, embedding, pos tagging, ner tagging task for Bengali language. BNLPは、モデルベースのトークン化、埋め込み、posタグ付け、Bengali言語のnerタグ付けタスクを行うための高精度な事前トレーニングモデルを提供します。 0.55
BNLP pretrained model achieves significant results in Bengali text tokenization, word embeddding, POS tagging and NER tagging task. BNLPプリトレーニングモデルは、Bengaliテキストトークン化、単語埋め込み、POSタグ付け、NERタグ付けタスクで重要な結果をもたらします。 0.54
BNLP is using widely in the Bengali research communities with 16K downloads, 119 stars and 31 forks. BNLPは16Kダウンロード、119スター、31フォークのベンガル研究コミュニティで広く使用されています。 0.64
BNLP is available at https://github. BNLPはhttps://github.comで入手できる。 0.61
com/sagorbrur/bnlp. 1 略称はbnlp。 1 0.54
Introduction Natural language processing is one of the most important field in computation linguistics. はじめに 自然言語処理は計算言語学において最も重要な分野の一つである。 0.64
Tokenization, embedding, pos tagging, ner tagging, text classification, language modeling are some of the sub task of NLP. トークン化、埋め込み、posタグ付け、nerタグ付け、テキスト分類、言語モデリングは、NLPのサブタスクの一部です。 0.63
Any computational linguistics researcher or developer need hands on tools to do these sub task efficiently. 計算言語学の研究者や開発者は、これらのサブタスクを効率的に行うためのツールを必要とします。
訳抜け防止モード: 計算言語学の研究者や開発者はツールに手が必要だ これらのサブタスクを効率的に行う。
0.63
Due to the recent advancement of NLP there are so many tools and method to do word tokenization, word embedding, pos tagging, ner tagging in English language. NLPの最近の進歩により、単語のトークン化、単語の埋め込み、POSタグ付け、英語でのナータグ付けを行うためのツールや方法が数多くあります。
訳抜け防止モード: 最近のNLPの進歩により、多くのツールや方法が存在している。 to do word tokenization, word embedding, pos tagging, ner tagging in English language.
0.90
NLTK[1], coreNLP[2], spacy[3], AllenNLP[4], Flair[5], stanza[6] are few of the tools. NLTK[1], coreNLP[2], spacy[3], AllenNLP[4], Flair[5], stanza[6] といったツールはほとんどありません。 0.78
These tools provide a variety of method to do tokenization, embedding, pos tagging, ner tagging, language modeling for English language. これらのツールは、トークン化、埋め込み、posタグ付け、nerタグ付け、英語の言語モデリングを行うための様々な方法を提供する。
訳抜け防止モード: これらのツールは様々な方法を提供します to do tokenization, embedded, pos tagging, ner tagging, language modeling for English language。
0.92
Support for other low resource language like Bengali is limited or no support at all. Bengaliのような他の低リソース言語のサポートは限られているか、まったくサポートされていない。 0.62
Recent tool like iNLTK1[7] is an initial approach for different indic language. iNLTK1[7]のような最近のツールは、異なるインデックス言語の初期アプローチです。 0.72
But as it groups with other indic language special monolingual support for Bengali language is missing. しかし、他のインディーズ言語とグループ化しているため、ベンガル語に対する特別な単言語サポートは欠落している。
訳抜け防止モード: ベンガル語に対する特別な単言語サポートを 他のインド系言語とグループ化すると 行方不明です。
0.63
BNLP is an open source language processing toolkit for Bengali language is build to address this problem and breaks the barrier to do different Bengali NLP task by: BNLPは、Bengali言語のためのオープンソースの言語処理ツールキットで、この問題に対処するために構築され、さまざまなBengali NLPタスクを行うための障壁を壊します。 0.66
• Providing different tokenization method to tokenize Bengali text efficiently • Providing different embedding method to embed Bengali word using pretrained model and also provides an • ベンガル語テキストを効率的にトークン化するための異なるトークン化方法を提供 • 事前訓練されたモデルを用いてベンガル語を埋め込む異なる埋め込み方法を提供すること。
訳抜け防止モード: •異なるトークン化方法 ベンガル語テキストを効率的にトークン化する • 事前学習モデルを用いたベンガル語単語の埋め込み方法の提案 同時に
0.75
option to train an embedding model from scratch 埋め込みモデルをスクラッチからトレーニングするオプション 0.65
• Providing hands on start option for pos tagging or ner tagging of Bengali sentences and also provides an option • pos tagging や ner tagging of bengali sentences のハンズオンスタートオプションを提供し、オプションも提供します。 0.71
for training CRF based pos tagger or ner tagger model from scratch. crfベースのpos taggerまたはner taggerモデルをスクラッチからトレーニングする。 0.67
BNLP also provides some utility methods like to remove stopwords from Bengali text, to get Bengali letters list or punctuation list. BNLPはまた、ベンガル文字リストまたは句読点リストを取得するために、ベンガル文字からストップワードを削除するなどのいくつかのユーティリティメソッドを提供します。
訳抜け防止モード: BNLPは、Bengaliテキストからストップワードを削除するなどのユーティリティメソッドも提供しています。 ベンガル文字リストまたは句読点リストを取得します。
0.60
BNLP github repositories2 for source code of the package, pretrained model and documentation3. BNLP githubRepository2 パッケージのソースコード、事前トレーニングされたモデル、ドキュメント3。 0.81
BNLP libraries has a permissive MIT license. BNLPライブラリには寛容なMITライセンスがある。 0.72
BNLP is easy to install via pip or by cloning repository, easy to plugin with any python projects. BNLP は pip やリポジトリのクローンによって簡単にインストールでき、python プロジェクトでも簡単にプラグインできる。 0.81
1https://github.com/ goru001/inltk 2https://github.com/ sagorbrur/bnlp 3https://bnlp.readth edocs.io/ 1https://github.com/ goru001/inltk 2https://github.com/ sagorbrur/bnlp 3https://bnlp.readth edocs.io/ 0.32
英語(論文から抽出)日本語訳スコア
Figure 1: Overview of BNLP’s pipeline. 図1:BNLPのパイプラインの概要。 0.66
BNLP takes raw text as input, and produces trained model of sentencepiece, word2vec and fasttext. BNLPは生のテキストを入力として取り、文片、word2vec、fasttextの訓練を受けたモデルを生成します。 0.54
Using that trained model BNLP prediction API do different prediction task. その訓練されたモデルBNLP予測APIを使用して、異なる予測タスクを行う。 0.59
2 BNLP API 2 BNLP API 0.85
Figure 2: BNLP Basic Tokenization API 図2:BNLP基本トークン化API 0.84
BNLP tool is too simple to use. BNLPツールは使いやすいです。 0.62
Researcher or developer can integrate this tool with installing simple python package. 研究者や開発者は、シンプルなpythonパッケージをインストールすることでこのツールを統合することができる。 0.53
In this section we are describing how to do different NLP task for Bengali text using BNLP toolkit. 本稿では,BNLPツールキットを用いてベンガル文字に対して異なるNLPタスクを行う方法について述べる。 0.67
2.1 Tokenization BNLP provides three different tokenization option to tokenize Bengali text. 2.1 トークン化 BNLPはベンガル文字をトークン化する3つの異なるトークン化オプションを提供する。 0.49
Under rule based tokenizer BNLP provides Basic Tokenizer a punctuation splitting tokenizer and NLTK4 tokenizer. ルールベースのトークン化器BNLPは、Basic Tokenizerに句読点分割トークン化器とNLTK4トークン化器を提供する。 0.54
As NLTK tokenizer is for English language, we modified nltk tokenize output to use it for Bengali language keeping in mind the difference between punctuation of English and Bengali. NLTKトークン化器は英語用であるため、英語とベンガル語の句読点の違いを念頭に置いて、nltkトークン化出力をベンガル語に使用するように修正しました。 0.59
Under model based tokenization BNLP provides sentencepice5 tokenizer for Bengali text called Bengali Sentencepiece. モデルベースのトークン化 BNLP は Bengali Sentencepiece と呼ばれる Bengali テキストに sentencepice5 トークン化機能を提供します。 0.62
Bengali sentencepiece api provide two option, pretrained sentencepiece model and training sentencepiece model. Bengaliの文ピースapiは、事前訓練された文ピースモデルとトレーニング文ピースモデルという2つのオプションを提供します。 0.39
Anyone can tokenize Bengali text using pretrained sentencepiece model or can train their own Bengali sentencepiece model by calling train api. 事前訓練された文片モデルを使ってベンガル語のテキストをトークン化したり、列車apiを呼び出すことで独自のベンガルの文片モデルをトレーニングすることができる。 0.47
2.2 Embedding BNLP provides two different embedding option to embed Bengali words, one is Bengali word2vec and Bengali fasttext. 2.2 埋め込み BNLPは、Bengali word2vecとBengali fasttextの2つの異なる埋め込みオプションを提供します。 0.67
Both Bengali word2vec and fasttext has two option, one is embed Bengali word using pretrained model and another is train Bengali word2vec/fasttext model from scratch. Bengali word2vecとfasttextの両方に2つのオプションがあります。1つは事前訓練されたモデルを使用してBengali単語を埋め込み、もう1つはBengali word2vec/fasttextモデルをゼロからトレーニングします。 0.51
For both embedding model we used gensim6 embedding api and trained with Bengali corpora. 両方の組み込みモデルにgensim6 embedded apiを使用し、bengali corporaでトレーニングしました。 0.54
4https://github.com/ nltk/nltk 5https://github.com/ google/sentencepiece 6https://github.com/ RaRe-Technologies/ge nsim 4https://github.com/ nltk/nltk 5https://github.com/ google/sentencepiece 6https://github.com/ RaRe-Technologies/ge nsim 0.30
2 2 0.85
英語(論文から抽出)日本語訳スコア
Figure 3: BNLP Word2Vec API 図3:BNLP Word2Vec API 0.86
Figure 4: BNLP NER API 図4:BNLP NER API 0.80
2.3 POS Tagging 2.3 POS タグ 0.71
BNLP provides a hands on starting option for pos tagging to Bengali by giving a method to tag pos from given sentence using pretrained CRF model and also train a CRF model by giving custom data. BNLPは、事前訓練されたCRFモデルを使用して与えられた文からposをタグ付けし、カスタムデータを与えることでCRFモデルをトレーニングすることで、Bengaliへのposタグ付けの開始オプションを提供する。
訳抜け防止モード: BNLP は Bengali にメソッドを付与することで Pos タグ付けの開始オプションを提供する to tag pos from given sentence using pretrained CRF model また、カスタムデータを与えることでCRFモデルをトレーニングする。
0.89
2.4 NER Tagging 2.4 NER タグ 0.70
Similar to pos tagging BNLP provides a hands on starting option to NER tagging for Bengali sentences and also provides an option to train a CRF based NER model using custom data. pos tagging BNLP と同様に、Bengali 文の NER タグ付けの開始オプションを提供し、カスタムデータを使用して CRF ベースの NER モデルをトレーニングするオプションを提供する。 0.82
Apart from this BNLP provides some extra utilities methods like getting Bengali stopwords, letters, punctuation from Corpus class. このbnlpは別として、ベンガル語のストップワードやレター、コーパスクラスからの句読点などのユーティリティメソッドを提供する。 0.52
3 BNLP Training and Evaluation 3 BNLPの訓練と評価 0.94
In this section we describe about different BNLP model training datasets, training procedure, evaluation procedures. 本稿では,BNLPモデルトレーニングデータセット,トレーニング手順,評価手順について述べる。 0.76
3.1 Datasets 3.1 データセット 0.54
For training sentencepiece, word2vec, fasttext we used Bengali raw text data from two sources. テキストのトレーニングには2つのソースからBengaliの生のテキストデータを使用しました。 0.66
One is wikipedia7 dump dataset and another is crawl news articles from different news portal sites. 1つはwikipedia7ダンプデータセットで、もう1つはニュースポータルサイトからニュース記事をクロールする。 0.65
As shown in Table 1 our raw data contains total of 99139 wikipedia Bengali articles and 127867 news articles. 表1に示すように、私たちの生データは合計99139ウィキペディアベンガリの記事と127867ニュース記事が含まれています。 0.68
Wikipedia corpus contains total of 1818523 sentenes with 32908419 tokens. ウィキペディアコーパスには合計1818523セネと32908419トークンが含まれています。 0.48
News articles corpus contains total of 4017940 sentences with 60526710 tokens. ニュース記事コーパスには合計4017940文と60526710トークンが含まれている。 0.59
7https://dumps.wikim edia.org/bnwiki/late st/ 7https://dumps.wikim edia.org/bnwiki/late st/ 0.29
Corpus Wikipedia コーパスウィキペディア 0.58
News Articles Total Articles 99139 127867 227006 ニュース記事 総 99139 127867 227006条 0.68
Sentences 1818523 4017940 5836463 文 1818523 4017940 5836463 0.71
Tokens 32908419 60526710 93435129 トークン 32908419 60526710 93435129 0.72
Table 1: Statistics of Datasets used for training sentencepiece, word2vec, fasttext Models 表1:文片, word2vec, fasttext Models の訓練に用いるデータセットの統計 0.83
3 3 0.85
英語(論文から抽出)日本語訳スコア
POS NER Sentences Train 2247 64155 POS NER 2247 64155系電車 0.73
2997 67719 2997 67719 0.85
Test 750 3564 750 3564のテスト 0.84
Table 2: Statistics of POS and NER datasets 表2:POSおよびNERデータセットの統計 0.88
POS NER Precision Recall 79.78 60.91 POS NER 精密リコール 79.78 60.91 0.71
81.74 74.15 81.74 74.15 0.50
F1 80.75 66.88 F1 80.75 66.88 0.52
Table 3: Evaluation results of POS and NER model 表3:POSおよびNERモデルの評価結果 0.79
For POS tagging we used nltr 8 datasets which contains total of 2997 sentences. POSタグ付けには、合計2997文を含むnltr 8データセットを使用しました。 0.58
We split that datasets into 2247 train and 750 test set and train our POS tagging model. データセットを2247のトレインと750のテストセットに分割し、POSタグ付けモデルをトレーニングします。 0.68
For NER we used NER-Bangla-Datasets [8] which contains total of 67719 data with 64155 train and 3564 test. NERでは、合計67719のデータを含むNER-Bangla-Datasets [8]を64155列車と3564テストで使用しました。 0.70
Table 2 provides details statistics of POS and NER datasets. 表2はPOSおよびNERデータセットの詳細統計を提供する。 0.75
3.2 Training and Evaluation 3.2 トレーニングと評価 0.78
We train sentencepiece model with our raw text data with vocab size 50000. vocabサイズ50000の原文データを用いて文節モデルを訓練した。 0.72
As sentencepiece provide us end-to-end system for training and tokenizing we did not do any preprocessing task in our raw text datasets. 文片は、トレーニングとトークン化のためのエンドツーエンドシステムを提供するので、生のテキストデータセットで前処理タスクは行わなかった。 0.55
We train our word2vec model with embedding dimention 300, window size 5, minimum number of word occurrences 1, and total workers number 8. 我々は,ワード2vecモデルを,埋め込みダイオーション300,ウィンドウサイズ5,単語発生回数1,作業者数8で訓練する。 0.78
We train it total of 50000 iterations. 私たちは合計50000のイテレーションを訓練します。 0.63
For training fasttext we set embedding dimension 300, windows size 5, number of minimum word occurrences 1, model type skipgram, learning rate 0.05. fasttextのトレーニングには、埋め込み寸法300、ウィンドウサイズ5、最小単語発生数1、モデルタイプスキップグラム、学習率0.05を設定しました。 0.81
We trained total of 50 epochs and our loss is 0.318668. 我々は50エポックのトレーニングを行い、損失は0.318668である。 0.64
Our CRF based POS tagging model and NER tagging model training approach is similar. CRFに基づくPOSタグモデルとNERタグモデルトレーニングアプローチは類似している。 0.70
We splited data into 75% train and 25% test. 75%の列車と25%のテストにデータを分割しました。 0.71
Our evaluation result for POS tagging model is 80.75 F1 score and NER model is 66.88 F1 score. POSタグ付けモデルの評価結果は80.75 F1スコア、NERモデルは66.88 F1スコアです。 0.69
Table 3 describe details about evaluation results. 評価結果の詳細を表3に示します。 0.75
4 Related Works There are significant number of open-source NLP tools for English language. 関連作品4件 英語のオープンソースNLPツールは、かなりの数ある。 0.76
Tools like NLTK[1], coreNLP[2], spacy[3], AllenNLP[4], Flair[5], stanza[6] are few of them. NLTK[1], coreNLP[2], spacy[3], AllenNLP[4], Flair[5], stanza[6]といったツールはほとんどありません。 0.74
These tools mostly build for English language and has limited or no support for other languages. これらのツールは、主に英語のために構築され、他の言語のサポートは限定的または全くない。 0.60
Specially a low resource language like Bengali, there is huge scarcity of tool to process it. 特にBengaliのような低リソース言語では、処理するツールが極めて少ないのです。 0.73
iNLTK[7] is an initial approach to help process Bengali language with tokenization, language model support. iNLTK[7]は、トークン化、言語モデルサポートを備えたBengali言語の処理を支援する最初のアプローチです。 0.70
But as it’s group with different indic language, specail monolingual concern for Bengali language is missing. しかし、異なるindic languageを持つグループであるため、bengali言語に対するspecailの単言語的関心は欠落している。 0.62
Keeping that concern in mind we build BNLP to support specially for Bengali language and provides tokenization, embedding, pos, ner supports. その懸念を念頭に置いて、我々は特にBengali言語をサポートするBNLPを構築し、トークン化、埋め込み、pos、nerサポートを提供します。
訳抜け防止モード: その懸念を念頭に置いておく We build BNLP to support specially for Bengali language and provide tokenization, embedding, pos, ner support.
0.92
5 Conclusion and Future Work 5 結論と今後の課題 0.79
BNLP language processing toolkit provides tokenization, embedding, pos tagging, ner tagging, language modeling facilities for Bengali language. BNLP言語処理ツールキットは、トークン化、埋め込み、posタグ付け、nerタグ付け、Bengali言語の言語モデリング機能を提供する。
訳抜け防止モード: BNLP言語処理ツールキットはトークン化、埋め込み、posタグ付けを提供する Bengali言語のための言語モデリング機能である。
0.75
BNLP pertrained model achieves significant results in Bengali text tokenizing, word embeddding, POS tagging and NER tagging task. BNLPの制約付きモデルは、Bengaliテキストトークン化、単語埋め込み、POSタグ付け、NERタグ付けタスクで重要な結果をもたらします。
訳抜け防止モード: BNLP Pertrained Model は、Bengali テキストトークン化、単語埋め込みなどの重要な結果をもたらします。 POSタグ付けとNERタグ付けタスク。
0.57
BNLP is using widely in Bengali language research communities and appreciated by the communities. BNLPはベンガル語の研究コミュニティで広く使用され、コミュニティに評価されています。 0.59
We are working on extending the support tools like stemming, lemmatizing, corpus support for BNLP in future. 今後,stemmingやlemmatizing,コーパスサポートといったサポートツールをbnlpにも拡張していく予定です。 0.69
We are working on to add language model based support like BERT based LM in BNLP so that researcher can use it for different downstream task efficiently. BNLPではBERTベースのLMのような言語モデルベースのサポートを追加し、研究者がさまざまな下流タスクに効率的に使用できるようにしています。 0.65
While these task under development, we are hopping that BNLP will accelerate Bengali NLP research and development. 開発中のこれらのタスクでは、BNLPがBengali NLPの研究開発を加速することを期待しています。 0.61
References [1] Edward Loper and Steven Bird. 参考文献 エドワード・ローパーとスティーヴン・バード。 0.57
Nltk: the natural language toolkit. Nltk: 自然言語ツールキット。 0.71
CoRR, cs.CL/0205028, 07 2002. CoRR, cs.CL/0205028, 07 2002。 0.72
8https://github.com/ abhishekgupta92/bang la_pos_tagger 8https://github.com/ abhishekgupta92/bang la_pos_tagger 0.26
4 4 0.85
英語(論文から抽出)日本語訳スコア
[2] Christopher Manning, Mihai Surdeanu, John Bauer, Jenny Finkel, Steven Bethard, and David McClosky. [2]Christopher Manning、Mihai Surdeanu、John Bauer、Jenny Finkel、Steven Bethard、David McClosky。 0.72
The Stanford CoreNLP natural language processing toolkit. Stanford CoreNLP 自然言語処理ツールキット。 0.77
In Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pages 55–60, Baltimore, Maryland, June 2014. 第52回計算言語学会年次総会において,システムデモ,55-60ページ,ボルチモア,2014年6月に開催された。 0.69
Association for Computational Linguistics. 計算言語学協会(Association for Computational Linguistics)。 0.50
[3] Matthew Honnibal and Ines Montani. 3] マシュー・ホンニバルとイネス・モンタニ。 0.62
spaCy 2: Natural language understanding with Bloom embeddings, convolu- spaCy 2: Bloom 埋め込みによる自然言語理解、convolu- 0.88
tional neural networks and incremental parsing. 集中型ニューラルネットワークとインクリメンタル解析。 0.69
To appear, 2017. [4] Matt Gardner, Joel Grus, Mark Neumann, Oyvind Tafjord, Pradeep Dasigi, Nelson F. Liu, Matthew E. Peters, Michael Schmitz, and Luke Zettlemoyer. 2017年、登場。 Matt Gardner, Joel Grus, Mark Neumann, Oyvind Tafjord, Pradeep Dasigi, Nelson F. Liu, Matthew E. Peters, Michael Schmitz, Luke Zettlemoyer.
訳抜け防止モード: 2017年、登場。 [4 ]Matt Gardner, Joel Grus, Mark Neumann, Oyvind Tafjord, Pradeep Dasigi, Nelson F. Liu, Matthew E. Peters マイケル・シュミッツ(Michael Schmitz)とルーク・ツェトルモイヤー(Luke Zettlemoyer)。
0.75
Allennlp: A deep semantic natural language processing platform. Allennlp: 深い意味を持つ自然言語処理プラットフォームです。 0.87
CoRR, abs/1803.07640, 2018. CORR, abs/1803.07640, 2018 0.70
[5] Alan Akbik, Tanja Bergmann, Duncan Blythe, Kashif Rasul, Stefan Schweter, and Roland Vollgraf. Alan Akbik氏、Tanja Bergmann氏、Duncan Blythe氏、Kashif Rasul氏、Stefan Schweter氏、Roland Vollgraf氏。 0.69
FLAIR: An easy-to-use framework for state-of-the-art NLP. FLAIR:最先端のNLPのための使いやすいフレームワーク。 0.66
In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pages 54–59, Minneapolis, Minnesota, June 2019. 北米計算言語学会の2019年会議(Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), page 54-59, Minneapolis, Minnesota, June 2019)に収録。 0.76
Association for Computational Linguistics. 計算言語学協会(Association for Computational Linguistics)。 0.50
[6] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D Manning. [6]Peng Qi、Yuhao Zhang、Yuhui Zhang、Jason Bolton、Christopher D Manning。 0.71
Stanza: A python natural stanza: pythonの自然言語 0.64
language processing toolkit for many human languages. 多くの人間の言語のための言語処理ツールキット。 0.65
arXiv preprint arXiv:2003.07082, 2020. arXiv preprint arXiv:2003.07082, 2020 0.81
[7] Gaurav Arora. ギャラヴ・アローラ(Gaurav Arora)。 0.55
iNLTK: Natural language toolkit for indic languages. iNLTK: indic言語用の自然言語ツールキット。 0.87
In Proceedings of Second Workshop for NLP Open Source Software (NLP-OSS), pages 66–71, Online, November 2020. In Proceedings of Second Workshop for NLP Open Source Software (NLP-OSS), Page 66-71, Online, November 2020。 0.89
Association for Computational Linguistics. 計算言語学協会(Association for Computational Linguistics)。 0.50
[8] Redwanul Karim, M. A. Islam, Sazid Simanto, Saif Chowdhury, Kalyan Roy, Adnan Neon, Md Hasan, Adnan Firoze, and Mohammad Rahman. 8] Redwanul Karim、M.A. Islamic、Sazid Simanto、Saif Chowdhury、Kalyan Roy、Adnan Neon、Md Hasan、Adnan Firoze、Mohammad Rahman。
訳抜け防止モード: [8 ]Redwanul Karim, M. A. Islam, Sazid Simanto, Saif Chowdhury, Kalyan Roy, Adnan Neon, Md Hasan Adnan FirozeとMohammad Rahman。
0.81
A step towards information extraction: Named entity recognition in bangla using deep learning. 情報抽出への一歩:深層学習を用いたバングラにおける名前付きエンティティ認識 0.70
Journal of Intelligent and Fuzzy Systems, 37:1–13, 07 2019. Journal of Intelligent and Fuzzy Systems, 37:1–13, 07 2019。 0.86
5 5 0.85
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。