論文の概要: SampoNLP: A Self-Referential Toolkit for Morphological Analysis of Subword Tokenizers
- arxiv url: http://arxiv.org/abs/2601.04469v1
- Date: Thu, 08 Jan 2026 01:05:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.968113
- Title: SampoNLP: A Self-Referential Toolkit for Morphological Analysis of Subword Tokenizers
- Title(参考訳): SampoNLP:サブワードトケナイザの形態解析のための自己参照型ツールキット
- Authors: Iaroslav Chelombitko, Ekaterina Chelombitko, Aleksey Komissarov,
- Abstract要約: 形態素レキシコン生成のためのコーパスフリーツールキットであるSampoNLPを紹介する。
フィンランド,ハンガリー,エストニアのSampoNLPが生成する高純度レキシコンを用いて,BPEトークンの系統的評価を行う。
モーフィムカバレッジとオーバースプリッティングのトレードオフをナビゲートする統合されたメトリクス、IPS(Integrated Performance Score)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The quality of subword tokenization is critical for Large Language Models, yet evaluating tokenizers for morphologically rich Uralic languages is hampered by the lack of clean morpheme lexicons. We introduce SampoNLP, a corpus-free toolkit for morphological lexicon creation using MDL-inspired Self-Referential Atomicity Scoring, which filters composite forms through internal structural cues - suited for low-resource settings. Using the high-purity lexicons generated by SampoNLP for Finnish, Hungarian, and Estonian, we conduct a systematic evaluation of BPE tokenizers across a range of vocabulary sizes (8k-256k). We propose a unified metric, the Integrated Performance Score (IPS), to navigate the trade-off between morpheme coverage and over-splitting. By analyzing the IPS curves, we identify the "elbow points" of diminishing returns and provide the first empirically grounded recommendations for optimal vocabulary sizes (k) in these languages. Our study not only offers practical guidance but also quantitatively demonstrates the limitations of standard BPE for highly agglutinative languages. The SampoNLP library and all generated resources are made publicly available: https://github.com/AragonerUA/SampoNLP
- Abstract(参考訳): サブワードのトークン化の質は、大規模言語モデルにとって重要であるが、モルフォロジーに富んだウルリック語のトークン化要因を評価することは、クリーンな形態素レキシコンの欠如によって妨げられている。
MDLにインスパイアされた自己参照原子性スコアリング(Self-Referential Atomicity Scoring)を用いたコーパスフリーのレキシコン生成ツールキットであるSampoNLPを紹介した。
フィンランド, ハンガリー, エストニアでSampoNLPが生成する高純度レキシコンを用いて, 語彙サイズ(8k-256k)のBPEトークン化剤を系統的に評価する。
モーフィムカバレッジとオーバースプリッティングのトレードオフをナビゲートする統合されたメトリクス、IPS(Integrated Performance Score)を提案する。
IPS曲線を解析することにより、リターンを減少させる「肘点」を同定し、これらの言語で最適な語彙サイズ(k)について、経験的に初めて提案する。
本研究は,実践的なガイダンスを提供するだけでなく,高度に理解可能な言語に対する標準BPEの限界を定量的に示す。
SampoNLPライブラリと生成されたすべてのリソースは、 https://github.com/AragonerUA/SampoNLPで公開されている。
関連論文リスト
- Shona spaCy: A Morphological Analyzer for an Under-Resourced Bantu Language [0.0]
Shona spaCyはBantu言語のためのオープンソースの計算形態解析ツールである。
語彙と規則を組み合わせて、名詞クラスの接頭辞、動詞の主語、テンソル・アスペクト・マーカー、イデオフォーン、およびクレティテスをモデル化する。
その精度は90%のPOSタグ精度と88%の形態的特徴精度である。
論文 参考訳(メタデータ) (2025-11-12T09:19:49Z) - MorphTok: Morphologically Grounded Tokenization for Indian Languages [18.594241501479747]
トークン化は、特に大規模言語モデル(LLM)の台頭において、NLPにおいて重要なステップである。
古典的Byte-pairを適用する前に, 形態素認識のセグメンテーションを事前学習のステップとして提案する。
音節ベースの書記システムに共通する係り受け母音を扱うために,制約付きBPE(CBPE)を提案する。
CBPEは従属母音を扱い、単一の単位として発生するのではなく、他の文字との結合単位を形成する。
論文 参考訳(メタデータ) (2025-04-14T15:44:45Z) - Leveraging Transformer-Based Models for Predicting Inflection Classes of Words in an Endangered Sami Language [1.788784870849724]
本論文では,Skolt Samiの語彙的特徴と形態的特徴を分類するために,トランスフォーマーモデルを用いた学習手法を提案する。
この研究の背後にある動機は、スコルト・サーミのような少数言語のための言語保存と再生活動を支援することである。
本モデルでは,POS分類では平均重み付きF1スコアが1.00であり,屈折分類では0.81である。
論文 参考訳(メタデータ) (2024-11-04T19:41:16Z) - Investigating Language-Specific Calibration For Pruning Multilingual Large Language Models [11.421452042888523]
多様な言語,タスク,モデル,および SotA プルーニング技術を用いて,多言語モデルをプルーニングするためのキャリブレーション言語を比較した。
例えば、ターゲット言語を校正することで、効率的に言語モデリング能力を維持することができるが、必ずしも下流タスクに利益をもたらすとは限らない。
論文 参考訳(メタデータ) (2024-08-26T16:29:13Z) - Natural Language Processing for Dialects of a Language: A Survey [56.93337350526933]
最先端自然言語処理(NLP)モデルは、大規模なトレーニングコーパスでトレーニングされ、評価データセットで最上位のパフォーマンスを報告します。
この調査は、これらのデータセットの重要な属性である言語の方言を掘り下げる。
方言データセットにおけるNLPモデルの性能劣化と言語技術のエクイティへのその影響を動機として,我々はデータセットやアプローチの観点から,方言に対するNLPの過去の研究を調査した。
論文 参考訳(メタデータ) (2024-01-11T03:04:38Z) - Subword Segmental Language Modelling for Nguni Languages [7.252933737829635]
サブワードセグメント言語モデル(SSLM)は、自動回帰言語モデリングのトレーニング中に単語をセグメントする方法を学ぶ。
南アフリカの4つのググニ語でモデルを訓練します。
この結果から,既存のサブワードセグメンテーションの代替として,学習サブワードセグメンテーションが有効であることが示唆された。
論文 参考訳(メタデータ) (2022-10-12T18:41:00Z) - Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。