論文の概要: Uzbek affix finite state machine for stemming
- arxiv url: http://arxiv.org/abs/2205.10078v1
- Date: Fri, 20 May 2022 10:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 23:37:21.214109
- Title: Uzbek affix finite state machine for stemming
- Title(参考訳): Uzbek affix finite state machine for stemming(英語)
- Authors: Maksud Sharipov, Ulugbek Salaev
- Abstract要約: 提案手法は,接尾辞を用いて接尾辞を検索し,レキシコンを含まない形態素解析である。
本手法は,大量のテキストからの単語の形態解析を高速に行うとともに,語彙の保持にメモリを用いることは不要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a morphological analyzer for the Uzbek language using a
finite state machine. The proposed methodology is a morphologic analysis of
Uzbek words by using an affix striping to find a root and without including any
lexicon. This method helps to perform morphological analysis of words from a
large amount of text at high speed as well as it is not required using of
memory for keeping vocabulary. According to Uzbek, an agglutinative language
can be designed with finite state machines (FSMs). In contrast to the previous
works, this study modeled the completed FSMs for all word classes by using the
Uzbek language's morphotactic rules in right to left order. This paper shows
the stages of this methodology including the classification of the affixes, the
generation of the FSMs for each affix class, and the combination into a head
machine to make analysis a word.
- Abstract(参考訳): 本研究は,有限状態機械を用いたウズベク語の形態解析器を提案する。
提案手法はウズベク語の形態素解析であり,接尾辞ストリッピングを用いて根を同定し,レキシコンを含まない。
本手法は,大量のテキストからの単語の形態解析を高速に行うとともに,語彙の保持にメモリを用いることは不要である。
ウズベクによれば、凝集言語は有限状態機械(FSM)で設計することができる。
従来の研究とは対照的に、ウズベク語の形態素規則を左右順に用いて、すべての単語クラスに対して完成したFSMをモデル化した。
本稿では,接尾辞の分類,接尾辞クラス毎のfsmの生成,単語解析のためのヘッドマシンへの組合せなど,この手法の段階について述べる。
関連論文リスト
- UzMorphAnalyser: A Morphological Analysis Model for the Uzbek Language Using Inflectional Endings [0.0]
接尾辞は、単語に付加的な意味と文法的機能を加えることによって、単語の形態解析において重要な役割を果たす。
本稿では,ユーズベク語の形態解析のモデル化について述べる。
提案されたモデルに基づく開発ツールは、WebベースのアプリケーションとオープンソースのPythonライブラリとして利用できる。
論文 参考訳(メタデータ) (2024-05-23T05:06:55Z) - Homonym Sense Disambiguation in the Georgian Language [49.1574468325115]
本研究は,ジョージア語における単語センス曖昧化(WSD)課題に対する新しいアプローチを提案する。
これは、ジョージアのCommon Crawls corpusをフィルタリングすることによって形成されたデータセットに基づいて、事前訓練されたLarge Language Model(LLM)の教師付き微調整に基づいている。
論文 参考訳(メタデータ) (2024-04-24T21:48:43Z) - An Analysis of BPE Vocabulary Trimming in Neural Machine Translation [56.383793805299234]
語彙トリミング(vocabulary trimming)は、まれなサブワードをコンポーネントサブワードに置き換える後処理のステップである。
ボキャブラリトリミングは性能向上に失敗し,さらに大きな劣化を招きやすいことを示す。
論文 参考訳(メタデータ) (2024-03-30T15:29:49Z) - A General and Flexible Multi-concept Parsing Framework for Multilingual Semantic Matching [60.51839859852572]
我々は,テキストを多言語セマンティックマッチングのためのマルチコンセプトに分解し,NERモデルに依存するモデルからモデルを解放することを提案する。
英語データセットのQQPとMRPC、中国語データセットのMedical-SMについて包括的な実験を行った。
論文 参考訳(メタデータ) (2024-03-05T13:55:16Z) - Open-Vocabulary Segmentation with Semantic-Assisted Calibration [73.39366775301382]
オープンボキャブラリセグメンテーション(OVS)は,CLIPの文脈に先行して,語彙内およびドメインバイアスの埋め込み空間を校正することで研究される。
オープン語彙セグメンテーションベンチマークにおける最先端性能を実現するために,セマンティック・アシブ・キャリブレーション・ネットワーク(SCAN)を提案する。
論文 参考訳(メタデータ) (2023-12-07T07:00:09Z) - UzbekTagger: The rule-based POS tagger for Uzbek language [0.0]
本研究では,低リソースなウズベク語のための音声アノテートデータセットとタグツールを提案する。
データセットには12のタグが含まれており、ルールベースのPOSタグツールの開発に使用された。
提案されたデータセットは、Uzbekで公開された最初の種類のものだ。POS-taggerツールは、他の密接に関連するトルコ語言語のベースとして使用するためのピボットとしても使用できる。
論文 参考訳(メタデータ) (2023-01-30T07:40:45Z) - UzbekStemmer: Development of a Rule-Based Stemming Algorithm for Uzbek
Language [0.0]
ウズベク語に対する規則に基づくスリーミングアルゴリズムを提案する。
この手法はウズベク語の単語をアフィクスストリッピングアプローチで綴じることを目的として提案されている。
XML形式の接尾辞の辞書が作成され、FSMに基づいてウズベク語を綴じるアプリケーションが開発されている。
論文 参考訳(メタデータ) (2022-10-28T09:29:22Z) - Development of a rule-based lemmatization algorithm through Finite State
Machine for Uzbek language [0.0]
本稿では,ウズベク語における補題化アルゴリズムの構築について論じる。
本研究の主な目的は,有限状態機械を用いて単語の接尾辞を除去することである。
論文 参考訳(メタデータ) (2022-10-28T09:21:06Z) - Accuracy of the Uzbek stop words detection: a case study on "School
corpus" [0.0]
本稿では,自動生成を目的とした停止語リストの品質評価手法を提案する。
この手法はウズベク語の停止語のリストを自動生成してテストした。
論文 参考訳(メタデータ) (2022-09-15T05:14:31Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。