論文の概要: LitMind Dictionary: An Open-Source Online Dictionary
- arxiv url: http://arxiv.org/abs/2204.11087v1
- Date: Sat, 23 Apr 2022 15:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 06:37:45.224268
- Title: LitMind Dictionary: An Open-Source Online Dictionary
- Title(参考訳): LitMind Dictionary: オープンソースオンライン辞書
- Authors: Cunliang Kong, Xuezhi Fang, Liner Yang, Yun Chen, Erhong Yang
- Abstract要約: 本稿では,オープンソースのオンライン生成辞書LitMind Dictionaryを紹介する。
単語を含む単語とコンテキストを入力として取り、自動的に定義を出力として生成する。
中国語と英語だけでなく、中国語と英語の言語間のクエリもサポートしている。
- 参考スコア(独自算出の注目度): 5.2221935174520056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dictionaries can help language learners to learn vocabulary by providing
definitions of words. Since traditional dictionaries present word senses as
discrete items in predefined inventories, they fall short of flexibility, which
is required in providing specific meanings of words in particular contexts. In
this paper, we introduce the LitMind Dictionary
(https://dictionary.litmind.ink), an open-source online generative dictionary
that takes a word and context containing the word as input and automatically
generates a definition as output. Incorporating state-of-the-art definition
generation models, it supports not only Chinese and English, but also
Chinese-English cross-lingual queries. Moreover, it has a user-friendly
front-end design that can help users understand the query words quickly and
easily. All the code and data are available at
https://github.com/blcuicall/litmind-dictionary.
- Abstract(参考訳): 辞書は、単語の定義を提供することで、言語学習者が語彙を学ぶのに役立つ。
伝統的な辞書は、あらかじめ定義された在庫において単語感覚を個別の項目として提示するため、特定の文脈における単語の特定の意味を提供するのに必要な柔軟性に欠ける。
本稿では、単語を入力として、自動的に定義を出力として生成する、オープンソースのオンライン生成辞書であるlitmind dictionary(https://dictionary.litmind.ink)を紹介する。
最先端の定義生成モデルを採用し、中国語と英語だけでなく、中国語と英語の言語間クエリもサポートする。
さらに、ユーザフレンドリーなフロントエンドデザインで、クエリワードを迅速かつ簡単に理解することができる。
すべてのコードとデータはhttps://github.com/blcuicall/litmind-dictionaryで入手できる。
関連論文リスト
- Learning Interpretable Queries for Explainable Image Classification with
Information Pursuit [18.089603786027503]
Information Pursuit (IP) は、データに関する解釈可能なクエリのシーケンスを欲求的に選択する説明可能な予測アルゴリズムである。
本稿では,データセットから直接解釈可能なクエリの辞書を学習する,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-16T21:43:07Z) - Dict-BERT: Enhancing Language Model Pre-training with Dictionary [42.0998323292348]
事前学習型言語モデル(PLM)は,大規模コーパス上で自己指導型学習タスクを行うことで,普遍的な言語表現を学習することを目的としている。
本研究では,辞書におけるレアワードの定義を活用することで,言語モデル事前学習の強化に焦点をあてる。
入力テキストシーケンスとまれな単語定義間の単語と文レベルのアライメントに関する2つの新しい自己教師付き事前学習タスクを提案する。
論文 参考訳(メタデータ) (2021-10-13T04:29:14Z) - Lacking the embedding of a word? Look it up into a traditional
dictionary [0.2624902795082451]
従来の辞書で検索された定義を用いて,稀な単語に対する単語埋め込みを生成することを提案する。
DefiNNetとDefBERTは、未知の単語の埋め込みを生成するためのベースラインメソッドと同様に、最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-09-24T06:27:58Z) - Allocating Large Vocabulary Capacity for Cross-lingual Language Model
Pre-training [59.571632468137075]
最近の言語間言語モデルでは,語彙の容量が限られているため,多くの言語が不足していることがわかった。
本稿では,各言語の語彙能力を決定するアルゴリズムであるVoCapを提案する。
この問題に対処するために,k-NNに基づくターゲットサンプリングを提案し,コストの高いソフトマックスを高速化する。
論文 参考訳(メタデータ) (2021-09-15T14:04:16Z) - Revisiting Language Encoding in Learning Multilingual Representations [70.01772581545103]
言語埋め込みを置き換えるクロスリンガル言語投影(Cross-lingual Language Projection, XLP)と呼ばれる新しいアプローチを提案する。
XLPは単語埋め込みを言語固有の意味空間に投影し、投影された埋め込みはTransformerモデルに供給される。
実験により、xlpは広範囲の多言語ベンチマークデータセットのモデル性能を自由かつ著しく向上できることが示された。
論文 参考訳(メタデータ) (2021-02-16T18:47:10Z) - Toward Cross-Lingual Definition Generation for Language Learners [10.45755551957024]
我々は、様々な言語の単語に対して、英語で定義を生成することを提案する。
モデルは、英語データセットでトレーニングされた後、他の言語に直接適用することができる。
実験と手動解析により,我々のモデルは強い言語間移動能力を有することが示された。
論文 参考訳(メタデータ) (2020-10-12T08:45:28Z) - BERT for Monolingual and Cross-Lingual Reverse Dictionary [56.8627517256663]
本稿では,BERTが特定のタスクの目的語を生成するための,シンプルだが効果的な手法を提案する。
BERT (mBERT) を用いることで,1つの単語を埋め込んだ言語間逆辞書を効率的に行うことができる。
論文 参考訳(メタデータ) (2020-09-30T17:00:10Z) - On the Learnability of Concepts: With Applications to Comparing Word
Embedding Algorithms [0.0]
セマンティックコンテンツを共有した単語の一覧として「概念」の概念を導入する。
まず、この概念を用いて、事前訓練された単語埋め込みにおける概念の学習可能性を測定する。
そこで我々は,様々な埋め込みアルゴリズムの相対的メリットを比較するために,仮説テストとROC曲線に基づく概念学習可能性の統計的解析を開発した。
論文 参考訳(メタデータ) (2020-06-17T14:25:36Z) - When Dictionary Learning Meets Deep Learning: Deep Dictionary Learning
and Coding Network for Image Recognition with Limited Data [74.75557280245643]
本稿では,限られたデータを用いた画像認識タスクのための新しいDeep Dictionary Learning and Coding Network(DDLCN)を提案する。
DDLCNをいくつかの主要な辞書学習手法と深層学習モデルと比較した。
5つの一般的なデータセットに対する実験結果から,DDLCNはトレーニングデータに制限がある場合の最先端手法と比較して,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-05-21T23:12:10Z) - Word Sense Disambiguation for 158 Languages using Word Embeddings Only [80.79437083582643]
文脈における単語感覚の曖昧さは人間にとって容易であるが、自動的アプローチでは大きな課題である。
本稿では,学習前の標準単語埋め込みモデルを入力として,完全に学習した単語認識のインベントリを誘導する手法を提案する。
この手法を用いて、158の言語に対して、事前訓練されたfastText単語の埋め込みに基づいて、センスインベントリのコレクションを誘導する。
論文 参考訳(メタデータ) (2020-03-14T14:50:04Z) - Lexical Sememe Prediction using Dictionary Definitions by Capturing
Local Semantic Correspondence [94.79912471702782]
セメムは人間の言語の最小の意味単位として定義されており、多くのNLPタスクで有用であることが証明されている。
本稿では,このようなマッチングを捕捉し,セメムを予測できるセメム対応プールモデルを提案する。
我々は,有名なSememe KB HowNetのモデルとベースライン手法を評価し,そのモデルが最先端のパフォーマンスを実現することを発見した。
論文 参考訳(メタデータ) (2020-01-16T17:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。