論文の概要: FST Morphology for the Endangered Skolt Sami Language
- arxiv url: http://arxiv.org/abs/2004.04803v1
- Date: Thu, 9 Apr 2020 20:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 03:11:41.795563
- Title: FST Morphology for the Endangered Skolt Sami Language
- Title(参考訳): 絶滅危惧語スコルトサミ語のfst形態
- Authors: Jack Rueter and Mika H\"am\"al\"ainen
- Abstract要約: 我々は,FSTを用いたSkolt Samiのモルフォロジー解析器とジェネレータの開発について述べる。
現在、このアナライザは148の屈折パラダイムで30,000以上のSkolt Sami語、12以上の派生形式をカバーしている。
- 参考スコア(独自算出の注目度): 0.49495085874952904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present advances in the development of a FST-based morphological analyzer
and generator for Skolt Sami. Like other minority Uralic languages, Skolt Sami
exhibits a rich morphology, on the one hand, and there is little golden
standard material for it, on the other. This makes NLP approaches for its study
difficult without a solid morphological analysis. The language is severely
endangered and the work presented in this paper forms a part of a greater whole
in its revitalization efforts. Furthermore, we intersperse our description with
facilitation and description practices not well documented in the
infrastructure. Currently, the analyzer covers over 30,000 Skolt Sami words in
148 inflectional paradigms and over 12 derivational forms.
- Abstract(参考訳): 我々は,FSTを用いたSkolt Samiのモルフォロジー解析器とジェネレータの開発について述べる。
他の少数民族のウラル語と同様に、スコルト・サーミ語は豊富な形態を呈しており、他方では黄金の標準資料はほとんど存在しない。
これにより、NLPによる研究は、固体形態解析なしでは困難である。
言語は深刻な危険にさらされており、本論文で提示された研究は、その再生活動において大きな部分を占めている。
さらに、インフラストラクチャにはあまり文書化されていないファシリテーションと説明プラクティスによって、説明を分散します。
現在、このアナライザは148の屈折パラダイムで30,000以上のSkolt Sami語、12以上の派生形式をカバーしている。
関連論文リスト
- Leveraging Transformer-Based Models for Predicting Inflection Classes of Words in an Endangered Sami Language [1.788784870849724]
本論文では,Skolt Samiの語彙的特徴と形態的特徴を分類するために,トランスフォーマーモデルを用いた学習手法を提案する。
この研究の背後にある動機は、スコルト・サーミのような少数言語のための言語保存と再生活動を支援することである。
本モデルでは,POS分類では平均重み付きF1スコアが1.00であり,屈折分類では0.81である。
論文 参考訳(メタデータ) (2024-11-04T19:41:16Z) - Holmes: A Benchmark to Assess the Linguistic Competence of Language Models [59.627729608055006]
言語モデル(LM)の言語能力を評価するための新しいベンチマークであるHolmesを紹介する。
我々は、計算に基づく探索を用いて、異なる言語現象に関するLMの内部表現を調べる。
その結果,近年,他の認知能力からLMの言語能力を引き離す声が上がっている。
論文 参考訳(メタデータ) (2024-04-29T17:58:36Z) - Post-hoc analysis of Arabic transformer models [20.741730718486032]
我々は、アラビア語の異なる方言で訓練されたトランスフォーマーモデルにおいて、言語情報がどのようにコード化されているかを探る。
アラビア語の異なる方言に対する形態的タグ付けタスクと方言識別タスクを用いて、モデル上で層とニューロン分析を行う。
論文 参考訳(メタデータ) (2022-10-18T16:53:51Z) - UniMorph 4.0: Universal Morphology [104.69846084893298]
本稿は,過去2年間のいくつかの前線における展開と改善について述べる。
多くの言語学者による共同作業により、30の絶滅危惧言語を含む67の新しい言語が追加された。
前回のUniMorphリリースに合わせて,16言語で形態素セグメンテーションを施したデータベースも拡張した。
論文 参考訳(メタデータ) (2022-05-07T09:19:02Z) - Quantifying Synthesis and Fusion and their Impact on Machine Translation [79.61874492642691]
自然言語処理(NLP)では、一般に、融合や凝集のような厳密な形態を持つ言語全体をラベル付けする。
本研究では,単語とセグメントレベルで形態型を定量化することにより,そのようなクレームの剛性を低減することを提案する。
本研究では, 英語, ドイツ語, トルコ語の非教師なし・教師付き形態素分割法について検討する一方, 融合ではスペイン語を用いた半自動手法を提案する。
そして、機械翻訳品質と単語(名詞と動詞)における合成・融合の程度との関係を分析する。
論文 参考訳(メタデータ) (2022-05-06T17:04:58Z) - Interpreting Arabic Transformer Models [18.98681439078424]
我々は、アラビア語の様々な種類に基づいて訓練された、アラビア語の事前訓練されたモデルにおいて、言語情報がどのように符号化されているかを探る。
MSA(現代の標準アラビア語)に基づく2つの形態的タグ付けタスクと、方言のPOSタグ付けタスクと、方言の識別タスクである。
論文 参考訳(メタデータ) (2022-01-19T06:32:25Z) - Translating from Morphologically Complex Languages: A Paraphrase-Based
Approach [45.900339652085584]
形態的関連語間の相互関係を潜在的なパラフレーズとして扱い,単語,句,文レベルでのパラフレーズ化手法を用いて処理する。
マレー語から英語に翻訳された実験は、競合するアプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-27T07:02:19Z) - Evaluation of Morphological Embeddings for the Russian Language [0.0]
SkipgramObjectiveで訓練されたモルフォロジーベースの埋め込みは、既存の埋め込みモデル-FastTextを上回っません。
より複雑な、しかしモルフォロジーを知らないモデル、BERTは、単語のモルフォロジーの理解を必要とするタスクで大幅に大きなパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2021-03-11T11:59:11Z) - Morphology Matters: A Multilingual Language Modeling Analysis [8.791030561752384]
先行研究では、言語のモデル化が難しくなるかどうかについては意見が一致していない。
我々は92の言語で145の聖書翻訳のより大きなコーパスをコンパイルし、多くの類型的特徴を蓄積する。
いくつかの形態学的測定は、LSTMモデルがBPEセグメントデータで訓練されると、より高い推定値と有意に関連します。
論文 参考訳(メタデータ) (2020-12-11T11:55:55Z) - Morphologically Aware Word-Level Translation [82.59379608647147]
本稿では,バイリンガルレキシコン誘導のための新しい形態素認識確率モデルを提案する。
我々のモデルは、レキセメが意味の鍵となる語彙単位であるという基本的な言語的直観を生かしている。
論文 参考訳(メタデータ) (2020-11-15T17:54:49Z) - Evaluating Transformer-Based Multilingual Text Classification [55.53547556060537]
我々は,NLPツールが構文的・形態学的に異なる言語で不平等に機能すると主張している。
実験研究を支援するために,単語順と形態的類似度指標を算出した。
論文 参考訳(メタデータ) (2020-04-29T03:34:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。