論文の概要: Persian Ezafe Recognition Using Transformers and Its Role in
Part-Of-Speech Tagging
- arxiv url: http://arxiv.org/abs/2009.09474v2
- Date: Sun, 4 Oct 2020 19:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 12:35:16.223721
- Title: Persian Ezafe Recognition Using Transformers and Its Role in
Part-Of-Speech Tagging
- Title(参考訳): トランスフォーマーを用いたペルシャのエザフ認識とその部分音声タギングにおける役割
- Authors: Ehsan Doostmohammadi, Minoo Nassajian, Adel Rahimi
- Abstract要約: エザフ (Ezafe) はイランのいくつかの言語において2つの単語を連結する文法的な粒子である。
我々は、さまざまな機械学習手法を用いて、ezafe認識のタスクにおいて最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 1.5469452301122177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ezafe is a grammatical particle in some Iranian languages that links two
words together. Regardless of the important information it conveys, it is
almost always not indicated in Persian script, resulting in mistakes in reading
complex sentences and errors in natural language processing tasks. In this
paper, we experiment with different machine learning methods to achieve
state-of-the-art results in the task of ezafe recognition. Transformer-based
methods, BERT and XLMRoBERTa, achieve the best results, the latter achieving
2.68% F1-score more than the previous state-of-the-art. We, moreover, use ezafe
information to improve Persian part-of-speech tagging results and show that
such information will not be useful to transformer-based methods and explain
why that might be the case.
- Abstract(参考訳): エザフ (Ezafe) はイランのいくつかの言語において2つの単語を連結する文法的な粒子である。
それが伝える重要な情報にかかわらず、ほぼ常にペルシア文字で示されておらず、複雑な文を読むことの誤りと自然言語処理タスクの誤りをもたらす。
本稿では,ezafe認識タスクにおける最先端結果を達成するために,異なる機械学習手法を実験する。
変換器ベースの手法であるBERTとXLMRoBERTaは最高の結果を得ることができ、後者は以前の最先端よりも2.68%のF1スコアを達成した。
さらに,ezafe 情報を用いてペルシャ語の音声のタグ付け結果を改善するとともに,このような情報がトランスフォーマーベースの手法には役に立たないことを示す。
関連論文リスト
- PERCORE: A Deep Learning-Based Framework for Persian Spelling Correction with Phonetic Analysis [0.0]
本研究では,ディープラーニング技術と音声解析をシームレスに統合したペルシャ語スペル訂正システムを提案する。
提案手法は,文脈分析と音韻的洞察を効果的に組み合わせ,非単語と実単語の綴り誤りを正確に補正する。
広帯域データセットの徹底的な評価により,既存手法と比較してシステムの性能が向上することを確認した。
論文 参考訳(メタデータ) (2024-07-20T07:41:04Z) - Persian Speech Emotion Recognition by Fine-Tuning Transformers [1.0152838128195467]
本稿では,2つのモデルについて述べる。1つはスペクトログラムに基づくもので,もう1つは音声自体に基づいて,shEMOデータセットを用いて微調整を行う。
これらのモデルは以前のシステムの精度を大幅に向上させ、約65%から80%まで向上させた。
微調整過程における多言語性の影響を調べるため、これらのモデルは同じものを2回微調整する。
論文 参考訳(メタデータ) (2024-02-11T23:23:31Z) - Adversarial Training For Low-Resource Disfluency Correction [50.51901599433536]
ディフルエンシ補正(DC)のための逆学習型シーケンスタグ付けモデルを提案する。
提案手法の利点は,3つのインド語でDCに対して評価することで,合成された非流動データに大きく依存することを示す。
また,本手法は,音声障害によって導入されたASR文字の破面的不一致の除去にも有効である。
論文 参考訳(メタデータ) (2023-06-10T08:58:53Z) - DisfluencyFixer: A tool to enhance Language Learning through Speech To
Speech Disfluency Correction [50.51901599433536]
DisfluencyFixerは、英語とヒンディー語で音声から音声への拡散補正を行うツールである。
提案システムでは,入力音声からの拡散を除去し,出力として流速音声を返却する。
論文 参考訳(メタデータ) (2023-05-26T14:13:38Z) - Evaluating Persian Tokenizers [6.10917825357379]
この記事ではペルシャ語で最も広く使われているトークンーエーザによる新しい研究を紹介する。
単純なアルゴリズムと事前にタグ付けされたペルシャの依存関係データセットを使用して、ペルシャのテキストのパフォーマンスを比較し評価する。
F1-Scoreでトークン化剤を評価した後、F1スコア98.97%のバウンドモルヒムを固定したFarsi VerbとHazmのハイブリッド版が最高の性能を示した。
論文 参考訳(メタデータ) (2022-02-22T13:27:24Z) - ViraPart: A Text Refinement Framework for ASR and NLP Tasks in Persian [0.0]
テキストの明確化にParsBERTを組み込んだViraPartフレームワークを提案する。
最終的に、提案されたZWNJ認識モデル、句読点復元モデル、ペルシャ・エザフ構成モデルは、それぞれ96.90%、92.13%、98.50%の平均的なF1マクロスコアを実行する。
論文 参考訳(メタデータ) (2021-10-18T08:20:40Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - The Challenges of Persian User-generated Textual Content: A Machine
Learning-Based Approach [0.0]
この研究は、ペルシャのユーザー生成テキストコンテンツがもたらすハードルに対処するために機械学習ベースのアプローチを適用します。
提示されたアプローチは、ペルシア語の感情分析を行うために機械翻訳データセットを使用する。
実験の結果は、これまでの試みとは対照的に、有望な最先端のパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-01-20T11:57:59Z) - Worse WER, but Better BLEU? Leveraging Word Embedding as Intermediate in
Multitask End-to-End Speech Translation [127.54315184545796]
音声翻訳(ST)は、ソース言語の音声からターゲット言語のテキストへの変換を学習することを目的としている。
単語埋め込みを中間語として活用することでマルチタスクSTモデルを改善することを提案する。
論文 参考訳(メタデータ) (2020-05-21T14:22:35Z) - Curriculum Pre-training for End-to-End Speech Translation [51.53031035374276]
本稿では,2つの言語における発話と単語のマッピングを理解するための,書き起こし学習の初等科目と2つの先進科目を含むカリキュラム事前学習手法を提案する。
実験の結果,カリキュラム事前学習手法は,En-De と En-Fr の音声翻訳ベンチマークを大幅に改善することがわかった。
論文 参考訳(メタデータ) (2020-04-21T15:12:07Z) - Sign Language Transformers: Joint End-to-end Sign Language Recognition
and Translation [59.38247587308604]
本稿では,連続手話認識と翻訳を共同で学習するトランスフォーマーアーキテクチャを提案する。
RWTH-PHOENIX-Weather-2014Tデータセットの認識と翻訳性能の評価を行った。
我々の翻訳ネットワークは、動画を音声言語に、光沢を音声言語翻訳モデルに、どちらよりも優れています。
論文 参考訳(メタデータ) (2020-03-30T21:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。