論文の概要: Toward Cross-Lingual Definition Generation for Language Learners
- arxiv url: http://arxiv.org/abs/2010.05533v1
- Date: Mon, 12 Oct 2020 08:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 06:41:43.314217
- Title: Toward Cross-Lingual Definition Generation for Language Learners
- Title(参考訳): 言語学習者のための言語横断定義生成に向けて
- Authors: Cunliang Kong, Liner Yang, Tianzuo Zhang, Qinan Fan, Zhenghao Liu, Yun
Chen, Erhong Yang
- Abstract要約: 我々は、様々な言語の単語に対して、英語で定義を生成することを提案する。
モデルは、英語データセットでトレーニングされた後、他の言語に直接適用することができる。
実験と手動解析により,我々のモデルは強い言語間移動能力を有することが示された。
- 参考スコア(独自算出の注目度): 10.45755551957024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating dictionary definitions automatically can prove useful for language
learners. However, it's still a challenging task of cross-lingual definition
generation. In this work, we propose to generate definitions in English for
words in various languages. To achieve this, we present a simple yet effective
approach based on publicly available pretrained language models. In this
approach, models can be directly applied to other languages after trained on
the English dataset. We demonstrate the effectiveness of this approach on
zero-shot definition generation. Experiments and manual analyses on newly
constructed datasets show that our models have a strong cross-lingual transfer
ability and can generate fluent English definitions for Chinese words. We
further measure the lexical complexity of generated and reference definitions.
The results show that the generated definitions are much simpler, which is more
suitable for language learners.
- Abstract(参考訳): 辞書定義の自動生成は、言語学習者にとって有用である。
しかし、言語間定義の生成は依然として難しい課題である。
本稿では,様々な言語における単語の定義を英語で生成することを提案する。
そこで本研究では,公開事前学習型言語モデルに基づく簡易かつ効果的なアプローチを提案する。
このアプローチでは、モデルを英語データセットでトレーニングした後、他の言語に直接適用することができる。
ゼロショット定義生成におけるこのアプローチの有効性を示す。
新たに構築されたデータセットに対する実験と手動解析により、我々のモデルは強い言語間移動能力を持ち、中国語の単語に対する流用な英語定義を生成できることが示されている。
さらに,生成および参照定義の語彙複雑性を計測する。
その結果,生成した定義はより単純であり,言語学習者に適していることがわかった。
関連論文リスト
- Small Language Models Also Work With Small Vocabularies: Probing the Linguistic Abilities of Grapheme- and Phoneme-Based Baby Llamas [7.585433383340306]
トークン化のない,音素および音素に基づく言語モデルにより,強力な言語性能が得られることを示す。
以上の結果から,より言語学的に妥当な言語モデルを作成する上で,有望な方向性が示唆された。
論文 参考訳(メタデータ) (2024-10-02T12:36:08Z) - Generating Continuations in Multilingual Idiomatic Contexts [2.0849578298972835]
非合成図形テキストを含むニュアンス言語理解における生成言語モデル(LM)の能力を検証する。
3つの異なるトレーニング設定の下で、2つの異なる言語(英語とポルトガル語)でデータセットを使用して実験を行う。
以上の結果から,本モデルでは慣用的文脈よりも文脈の連続性をわずかに向上し,マージンが極端に小さいことが示唆された。
論文 参考訳(メタデータ) (2023-10-31T05:40:33Z) - Counterfactually Probing Language Identity in Multilingual Models [15.260518230218414]
多言語モデルの内部構造を探索するために, 対実的探索法AlterRepを用いる。
言語 X のテンプレートを考えると、言語 Y が言語 Y の単語の確率を体系的に増加させることが分かる。
論文 参考訳(メタデータ) (2023-10-29T01:21:36Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Assisting Language Learners: Automated Trans-Lingual Definition
Generation via Contrastive Prompt Learning [25.851611353632926]
標準定義生成タスクは、モノリンガル定義を自動的に生成する必要がある。
本稿では,他言語で定義を生成することを目的としたTLDG(Trans-Lingual Definition Generation)を提案する。
論文 参考訳(メタデータ) (2023-06-09T17:32:45Z) - Language Models are Few-shot Multilingual Learners [66.11011385895195]
我々は、非英語言語における多言語分類を行う際に、GPTモデルとT5モデルの多言語的スキルを評価する。
文脈としての英語の例を見ると、事前学習された言語モデルは、英語のテストサンプルだけでなく、英語以外のサンプルも予測できることが示されている。
論文 参考訳(メタデータ) (2021-09-16T03:08:22Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - Revisiting Language Encoding in Learning Multilingual Representations [70.01772581545103]
言語埋め込みを置き換えるクロスリンガル言語投影(Cross-lingual Language Projection, XLP)と呼ばれる新しいアプローチを提案する。
XLPは単語埋め込みを言語固有の意味空間に投影し、投影された埋め込みはTransformerモデルに供給される。
実験により、xlpは広範囲の多言語ベンチマークデータセットのモデル性能を自由かつ著しく向上できることが示された。
論文 参考訳(メタデータ) (2021-02-16T18:47:10Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。