論文の概要: SICKNL: A Dataset for Dutch Natural Language Inference
- arxiv url: http://arxiv.org/abs/2101.05716v1
- Date: Thu, 14 Jan 2021 16:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 00:51:59.454695
- Title: SICKNL: A Dataset for Dutch Natural Language Inference
- Title(参考訳): SICKNL:オランダの自然言語推論のためのデータセット
- Authors: Gijs Wijnholds, Michael Moortgat
- Abstract要約: オランダ語で自然言語推論を対象とするデータセットSICK-NL(可読信号)を提案する。
SICK-NLは、Marelli等のSICKデータセットを翻訳して得られる。
(2014年)英語からオランダ語へ。
並列推論データセットを持つことで、単言語と多言語の両方のNLPモデルを英語とオランダ語で比較できる。
- 参考スコア(独自算出の注目度): 2.944323057176686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SICK-NL (read: signal), a dataset targeting Natural Language
Inference in Dutch. SICK-NL is obtained by translating the SICK dataset of
Marelli et al. (2014)from English into Dutch. Having a parallel inference
dataset allows us to compare both monolingual and multilingual NLP models for
English and Dutch on the two tasks. In the paper, we motivate and detail the
translation process, perform a baseline evaluation on both the original SICK
dataset and its Dutch incarnation SICK-NL, taking inspiration from Dutch
skipgram embeddings and contextualised embedding models. In addition, we
encapsulate two phenomena encountered in the translation to formulate stress
tests and verify how well the Dutch models capture syntactic restructurings
that do not affect semantics. Our main finding is all models perform worse on
SICK-NL than on SICK, indicating that the Dutch dataset is more challenging
than the English original. Results on the stress tests show that models don't
fully capture word order freedom in Dutch, warranting future systematic
studies.
- Abstract(参考訳): オランダ語で自然言語推論を対象とするデータセットSICK-NL(可読信号)を提案する。
SICK-NLは、Marelli等のSICKデータセットを翻訳して得られる。
(2014年)英語からオランダ語へ。
並列推論データセットを持つことで、英語とオランダ語の単言語NLPモデルと多言語NLPモデルを比較することができる。
本稿では,翻訳プロセスのモチベーションと詳細化を図り,元のSICKデータセットとオランダのSICK-NLのベースライン評価を行い,オランダ語のスキップグラム埋め込みと文脈的埋め込みモデルからインスピレーションを得た。
さらに, 翻訳で発生する2つの現象をカプセル化し, 意味論に影響を与えない構文再構成をオランダのモデルがいかにうまく捉えたかを検証する。
主な発見は、すべてのモデルがSICK-NLよりもSICK-NLの方がパフォーマンスが悪く、オランダのデータセットが英語のオリジナルよりも難しいことを示しています。
ストレステストの結果、モデルはオランダ語で単語の順序の自由を完全に捉えておらず、将来の体系的な研究を保証している。
関連論文リスト
- XNLIeu: a dataset for cross-lingual NLI in Basque [14.788692648660797]
本稿では、XNLIを拡張して、トランスファーラーニングのアプローチを大いに活用できる低リソース言語であるBasqueを含める。
新しいデータセットはXNLIeuと呼ばれ、最初は英語のXNLIコーパスをバスクに機械翻訳し、続いて手動で編集後のステップで開発された。
論文 参考訳(メタデータ) (2024-04-10T13:19:56Z) - Cross-lingual Transfer or Machine Translation? On Data Augmentation for
Monolingual Semantic Textual Similarity [2.422759879602353]
Wikipediaデータの言語間転送では、モノリンガルSTSのパフォーマンスが改善されている。
学習データとしてNLIに着目した先行研究とは対照的に,これらの言語ではWikipediaドメインがNLIドメインよりも優れている。
論文 参考訳(メタデータ) (2024-03-08T12:28:15Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - DivEMT: Neural Machine Translation Post-Editing Effort Across
Typologically Diverse Languages [5.367993194110256]
DivEMTは、ニューラルネットワーク翻訳(NMT)に関する、タイプ的かつ多様なターゲット言語に対する初めての公開後研究である。
我々は、Google Translateとオープンソースの多言語モデルmBART50の2つの最先端NTTシステムの翻訳生産性への影響を評価する。
論文 参考訳(メタデータ) (2022-05-24T17:22:52Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - Self-Training Sampling with Monolingual Data Uncertainty for Neural
Machine Translation [98.83925811122795]
並列データを補完するために最も情報に富んだ単言語文を選択することでサンプリング手順を改善することを提案する。
並列データから抽出したバイリンガル辞書を用いて単言語文の不確実性を計算した。
大規模WMT英語$Rightarrow$Germanと英語$Rightarrow$ Chineseデータセットの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2021-06-02T05:01:36Z) - Understanding by Understanding Not: Modeling Negation in Language Models [81.21351681735973]
否定は自然言語の中核構造である。
本稿では,否定された総称文に基づく不一致目的を用いて,言語モデリング目標の強化を提案する。
否定されたLAMAデータセットの平均top1エラー率を4%に削減します。
論文 参考訳(メタデータ) (2021-05-07T21:58:35Z) - TaBERT: Pretraining for Joint Understanding of Textual and Tabular Data [113.29476656550342]
本研究では,NL文と表の表現を共同で学習する事前学習型LMであるTaBERTを提案する。
TaBERTは、600万のテーブルとその英語コンテキストからなる大規模なコーパスで訓練されている。
モデルの実装はhttp://fburl.com/TaBERT.comで公開される。
論文 参考訳(メタデータ) (2020-05-17T17:26:40Z) - Data and Representation for Turkish Natural Language Inference [6.135815931215188]
トルコ語における自然言語推論(NLI)に対する肯定的な反応を提供する。
2つの大きな英語NLIデータセットをトルコ語に翻訳し、専門家のチームが元のラベルへの翻訳品質と忠実さを検証した。
言語内埋め込みは必須であり,学習セットが大きい場所では形態的解析が避けられることがわかった。
論文 参考訳(メタデータ) (2020-04-30T17:12:52Z) - Assessing the Bilingual Knowledge Learned by Neural Machine Translation
Models [72.56058378313963]
NMTモデルで学習したバイリンガル知識をフレーズテーブルで評価することで,このギャップを埋める。
NMTモデルは、単純なものから複雑なものまでパターンを学習し、トレーニング例から本質的なバイリンガル知識を抽出する。
論文 参考訳(メタデータ) (2020-04-28T03:44:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。