論文の概要: Wine is Not v i n. -- On the Compatibility of Tokenizations Across
Languages
- arxiv url: http://arxiv.org/abs/2109.05772v1
- Date: Mon, 13 Sep 2021 08:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 03:55:04.361218
- Title: Wine is Not v i n. -- On the Compatibility of Tokenizations Across
Languages
- Title(参考訳): ワインは v i n ではない。
--言語間のトークン化の互換性について
- Authors: Antonis Maronikolakis, Philipp Dufter, Hinrich Sch\"utze
- Abstract要約: 多言語静的および文脈的埋め込み空間におけるトークン化の整合性について検討する。
本稿では,言語間のトークン化の互換性を反映した尺度を提案する。
- 参考スコア(独自算出の注目度): 4.01776052820812
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The size of the vocabulary is a central design choice in large pretrained
language models, with respect to both performance and memory requirements.
Typically, subword tokenization algorithms such as byte pair encoding and
WordPiece are used. In this work, we investigate the compatibility of
tokenizations for multilingual static and contextualized embedding spaces and
propose a measure that reflects the compatibility of tokenizations across
languages. Our goal is to prevent incompatible tokenizations, e.g., "wine"
(word-level) in English vs.\ "v i n" (character-level) in French, which make it
hard to learn good multilingual semantic representations. We show that our
compatibility measure allows the system designer to create vocabularies across
languages that are compatible -- a desideratum that so far has been neglected
in multilingual models.
- Abstract(参考訳): 語彙のサイズは、性能とメモリ要件の両方に関して、大きな事前訓練された言語モデルにおいて中心的な設計選択である。
通常、バイトペアエンコーディングやWordPieceなどのサブワードトークン化アルゴリズムが使用される。
本研究では,多言語静的および文脈的埋め込み空間におけるトークン化の互換性を調査し,言語間のトークン化の互換性を反映した尺度を提案する。
私たちの目標は、英語対英語の"wine"(単語レベル)など、互換性のないトークン化を防止することです。
フランス語の "v i n" (キャラクタレベル) は、良質な多言語意味表現を学ぶのが困難である。
私たちの互換性尺度は、システムデザイナが互換性のある言語をまたいだ語彙を作成することを可能にすることを示しています。
関連論文リスト
- Egalitarian Language Representation in Language Models: It All Begins with Tokenizers [0.0]
すべてのトークンライザが、Tamil、Sinhala、Hindiといった複雑なスクリプト言語に対して公正な表現を提供するわけではないことを示す。
本稿では,Grapheme Pair と呼ばれるグラフエムを組み込むことにより,Byte Pair アルゴリズムの改良を提案する。
実験の結果, 文字抽出は複雑なスクリプトに対して, バイトレベルのトークン化器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-09-17T19:05:37Z) - Tokenization Impacts Multilingual Language Modeling: Assessing
Vocabulary Allocation and Overlap Across Languages [3.716965622352967]
サブワードトークン化器で観測される語彙表現と語彙重複の質を評価するための新しい基準を提案する。
以上の結果から,言語間の語彙の重複は,特定の下流課題に支障を来す可能性があることが示唆された。
論文 参考訳(メタデータ) (2023-05-26T18:06:49Z) - Language Model Tokenizers Introduce Unfairness Between Languages [98.92630681729518]
トークン化段階では,モデルが呼び出される直前に,異なる言語に対する扱いの相違が生じることを示す。
文字レベルとバイトレベルのモデルも、いくつかの言語ペアの符号化長の4倍以上の差を示している。
我々は、多言語で公平なサブワードトークン化器を用いて、将来の言語モデルを訓練するべきだと仮定する。
論文 参考訳(メタデータ) (2023-05-17T14:17:57Z) - Integrating Language Guidance into Vision-based Deep Metric Learning [78.18860829585182]
埋め込み空間として意味的類似性を符号化した距離空間を学習することを提案する。
これらの空間は、トレーニング中に見られるもの以外のクラスに転送可能であるべきである。
これにより、学習された埋め込み空間は不完全な意味的コンテキストを符号化し、クラス間の意味的関係を誤って表現する。
論文 参考訳(メタデータ) (2022-03-16T11:06:50Z) - Handling Compounding in Mobile Keyboard Input [7.309321705635677]
本稿では,形態的にリッチな言語におけるモバイルユーザのタイピング体験を改善するためのフレームワークを提案する。
スマートフォンのキーボードは典型的には、入力復号化、修正、予測といった言語モデルに依存している機能をサポートしている。
本手法は, 様々な複合言語において, 単語誤り率を約20%削減することを示す。
論文 参考訳(メタデータ) (2022-01-17T15:28:58Z) - Examining Cross-lingual Contextual Embeddings with Orthogonal Structural
Probes [0.2538209532048867]
オルソゴン構造プローブ(Limisiewicz and Marevcek, 2021)では、特定の言語的特徴についてこの疑問に答えることができる。
InmBERTの文脈表現を符号化した構文(UD)と語彙(WordNet)構造情報を9つの多言語で評価した。
ゼロショットと少数ショットのクロスランガル構文解析にこの結果を適用した。
論文 参考訳(メタデータ) (2021-09-10T15:03:11Z) - Revisiting Language Encoding in Learning Multilingual Representations [70.01772581545103]
言語埋め込みを置き換えるクロスリンガル言語投影(Cross-lingual Language Projection, XLP)と呼ばれる新しいアプローチを提案する。
XLPは単語埋め込みを言語固有の意味空間に投影し、投影された埋め込みはTransformerモデルに供給される。
実験により、xlpは広範囲の多言語ベンチマークデータセットのモデル性能を自由かつ著しく向上できることが示された。
論文 参考訳(メタデータ) (2021-02-16T18:47:10Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。