論文の概要: SuperSim: a test set for word similarity and relatedness in Swedish
- arxiv url: http://arxiv.org/abs/2104.05228v1
- Date: Mon, 12 Apr 2021 06:47:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 03:23:19.285440
- Title: SuperSim: a test set for word similarity and relatedness in Swedish
- Title(参考訳): SuperSim:スウェーデン語における単語類似性と関連性のテストセット
- Authors: Simon Hengchen and Nina Tahmasebi
- Abstract要約: SuperSimは、熟練した人間の判断で構築されたスウェーデンの大規模な類似性と関連性テストセットです。
テストセットは5つのアノテータによって関連性と類似性の両方について独立に判断される1,360ワードペアで構成されている。
- 参考スコア(独自算出の注目度): 3.319978067919917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models are notoriously difficult to evaluate. We release SuperSim, a
large-scale similarity and relatedness test set for Swedish built with expert
human judgments. The test set is composed of 1,360 word-pairs independently
judged for both relatedness and similarity by five annotators. We evaluate
three different models (Word2Vec, fastText, and GloVe) trained on two separate
Swedish datasets, namely the Swedish Gigaword corpus and a Swedish Wikipedia
dump, to provide a baseline for future comparison. We release the fully
annotated test set, code, baseline models, and data.
- Abstract(参考訳): 言語モデルは評価するのが非常に難しい。
SuperSimは、人間の判断に精通したスウェーデンの大規模な類似性と関連性テストセットです。
テストセットは5つのアノテータによって関連性と類似性の両方について独立に判断される1,360ワードペアで構成されている。
スウェーデンのGigaword corpusとスウェーデンのWikipediaダンプという2つのスウェーデンのデータセットでトレーニングされた3つの異なるモデル(Word2Vec、fastText、GloVe)を評価し、将来の比較のためのベースラインを提供する。
完全なアノテーション付きテストセット、コード、ベースラインモデル、データをリリースします。
関連論文リスト
- SWEb: A Large Web Dataset for the Scandinavian Languages [11.41086713693524]
本稿はスカンジナビア語における最大の事前学習データセットであるスカンジナビア語WEb(SWEb)について述べる。
本稿では,ルールベースのアプローチと比較して,複雑性を著しく低減する新しいモデルベースのテキスト抽出手法を提案する。
また、スウェーデンの言語モデルを評価するための新しいクローゼスタイルのベンチマークを導入し、このテストを用いて、SWEbデータでトレーニングされたモデルとFinalWebでトレーニングされたモデルを比較し、競合する結果と比較した。
論文 参考訳(メタデータ) (2024-10-06T11:55:15Z) - The Belebele Benchmark: a Parallel Reading Comprehension Dataset in 122 Language Variants [80.4837840962273]
私たちは122の言語変種にまたがるデータセットであるBelebeleを紹介します。
このデータセットは、高、中、低リソース言語におけるテキストモデルの評価を可能にする。
論文 参考訳(メタデータ) (2023-08-31T17:43:08Z) - Does mBERT understand Romansh? Evaluating word embeddings using word
alignment [0.0]
類似度に基づく単語アライメントモデル(SimAlign と Super-Align )と mBERT と XLM-R の単語埋め込みを,ドイツ語とロマンシュ語の並行文に組み合わせて検証する。
mBERTの埋め込みを使用して、両方のモデルがアライメントエラー率0.22に達し、fast_alignを上回っている。
また、ドイツ語とロマンシュ語の単語アライメントのための金の標準も提示する。
論文 参考訳(メタデータ) (2023-06-14T19:00:12Z) - CompoundPiece: Evaluating and Improving Decompounding Performance of
Language Models [77.45934004406283]
複合語を構成語に分割する作業である「分解」を体系的に研究する。
We introduced a dataset of 255k compound and non-compound words across 56 various languages obtained from Wiktionary。
分割のための専用モデルを訓練するための新しい手法を導入する。
論文 参考訳(メタデータ) (2023-05-23T16:32:27Z) - ScandEval: A Benchmark for Scandinavian Natural Language Processing [0.0]
本稿では,スカンジナビア語における4つのタスクに対して事前学習したモデルをベンチマークする,スカンジナビアのベンチマークプラットフォームであるScandEvalを紹介する。
言語的受容性と質問応答という2つのタスクで使用されるデータセットは新しいものだ。
我々は,Hugging Face Hubにアップロードされたモデルを,再現可能な結果でベンチマークすることができるPythonパッケージとコマンドラインインターフェースであるScandevalを開発し,リリースする。
論文 参考訳(メタデータ) (2023-04-03T11:51:46Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z) - XL-WiC: A Multilingual Benchmark for Evaluating Semantic
Contextualization [98.61159823343036]
単語の意味を正確にモデル化する能力を評価するために,Word-in-Context データセット (WiC) を提案する。
我々は、XL-WiCという大規模なマルチ言語ベンチマークを提案し、12の新しい言語でゴールドスタンダードを特徴付けました。
実験結果から、ターゲット言語にタグ付けされたインスタンスが存在しない場合でも、英語データのみにトレーニングされたモデルは、競争力のあるパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T15:32:00Z) - Why Not Simply Translate? A First Swedish Evaluation Benchmark for
Semantic Similarity [3.6296396308298795]
本稿では,テキスト意味的類似性に関するスウェーデン初の評価ベンチマークを提案する。
ベンチマークは、Googleの機械翻訳APIを通じて、英語のSTS-Bデータセットを単純に実行することでコンパイルされる。
結果のデータセットに明らかな問題がいくつかあるが、このベンチマークを使用して、現在存在するスウェーデンのテキスト表現の大部分を比較している。
論文 参考訳(メタデータ) (2020-09-07T14:07:12Z) - Exploring Swedish & English fastText Embeddings for NER with the
Transformer [1.6507910904669727]
比較的小さなコーパスからの埋め込みはより大きなコーパスからの埋め込みよりも優れていることを示す。
より少ないトレーニングデータで、下流タスクにおいて、両方の言語でより良いパフォーマンスを得る。
n-gramという文字は、形態学的に豊かな言語であるスウェーデン語にとって有用である。
論文 参考訳(メタデータ) (2020-07-23T08:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。