論文の概要: An Attention Based Neural Network for Code Switching Detection: English
& Roman Urdu
- arxiv url: http://arxiv.org/abs/2103.02252v1
- Date: Wed, 3 Mar 2021 08:36:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:12:15.316304
- Title: An Attention Based Neural Network for Code Switching Detection: English
& Roman Urdu
- Title(参考訳): コードスイッチ検出のための注意に基づくニューラルネットワーク - English & Roman Urdu
- Authors: Aizaz Hussain, Muhammad Umair Arshad
- Abstract要約: コードスイッチデータにおける言語識別のための注意モデルと低リソースのローマン・ウルドゥを組み合わせた繰り返しニューラルネットワークを提案する。
注意モデルは、アーキテクチャが言語の重要な特徴を学ぶことを可能にするため、コード交換データを分類します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code-switching is a common phenomenon among people with diverse lingual
background and is widely used on the internet for communication purposes. In
this paper, we present a Recurrent Neural Network combined with the Attention
Model for Language Identification in Code-Switched Data in English and low
resource Roman Urdu. The attention model enables the architecture to learn the
important features of the languages hence classifying the code switched data.
We demonstrated our approach by comparing the results with state of the art
models i.e. Hidden Markov Models, Conditional Random Field and Bidirectional
LSTM. The models evaluation, using confusion matrix metrics, showed that the
attention mechanism provides improved the precision and accuracy as compared to
the other models.
- Abstract(参考訳): コードスイッチングは、様々な言語背景を持つ人々の間で共通の現象であり、通信目的でインターネットで広く使われている。
本稿では,コードスイッチデータにおける言語識別のための注意モデルと低リソースのロマ・ウルドゥを組み合わせた繰り返しニューラルネットワークを提案する。
注意モデルは、アーキテクチャが言語の重要な特徴を学ぶことを可能にするため、コード交換データを分類します。
結果と美術モデルの状況を比較することで,そのアプローチを実証した。
隠れマルコフモデル, 条件ランダム場および双方向LSTM
混乱行列メトリクスを用いたモデル評価の結果,注意機構は他のモデルと比較して精度と精度が向上した。
関連論文リスト
- Revisiting N-Gram Models: Their Impact in Modern Neural Networks for Handwritten Text Recognition [4.059708117119894]
本研究は,言語モデル,特にn-gramモデルが,手書き認識の分野における最先端のディープラーニングアーキテクチャの性能に引き続き寄与するかどうかを論じる。
我々は、明示的なn-gram言語モデルを統合することなく、2つの著名なニューラルネットワークアーキテクチャ、PyLaiaとDANを評価した。
その結果,文字やサブワードの n-gram モデルの導入は,すべてのデータセット上での ATR モデルの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-04-30T07:37:48Z) - Streaming Bilingual End-to-End ASR model using Attention over Multiple
Softmax [6.386371634323785]
本稿では,両言語を単一のニューラルモデルで認識可能な,バイリンガル・エンド・ツー・エンド(E2E)モデリング手法を提案する。
提案モデルでは,自己認識機構によって結合された言語固有のジョイントネットワークを用いて,エンコーダと予測ネットワークを共有する。
論文 参考訳(メタデータ) (2024-01-22T01:44:42Z) - A Transformer-based Approach for Arabic Offline Handwritten Text
Recognition [0.0]
オフラインのアラビア文字を認識できるアーキテクチャを2つ導入する。
私たちのアプローチは言語依存をモデル化することができ、注意機構のみに依存するので、より並列化可能で、より複雑ではありません。
アラビアKHATTデータセットの評価は,提案手法が現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-27T17:51:52Z) - Bidirectional Representations for Low Resource Spoken Language
Understanding [39.208462511430554]
双方向リッチ符号化における音声符号化のための表現モデルを提案する。
このアプローチでは、表現を学習するために、マスク付き言語モデリングの目的を使用する。
得られたエンコーディングの性能は、複数のデータセットで比較できるモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-24T17:05:16Z) - ABINet++: Autonomous, Bidirectional and Iterative Language Modeling for
Scene Text Spotting [121.11880210592497]
言語モデルの限られた能力は,1)暗黙的な言語モデリング,2)一方向の特徴表現,3)雑音入力を伴う言語モデルから生じる。
シーンテキストスポッティングのための自律的で双方向かつ反復的なABINet++を提案する。
論文 参考訳(メタデータ) (2022-11-19T03:50:33Z) - LAMASSU: Streaming Language-Agnostic Multilingual Speech Recognition and
Translation Using Neural Transducers [71.76680102779765]
自動音声認識(ASR)と音声翻訳(ST)はどちらもモデル構造としてニューラルトランスデューサを使用することができる。
ニューラルトランスデューサを用いた多言語音声認識および翻訳モデルであるLAMASSUを提案する。
論文 参考訳(メタデータ) (2022-11-05T04:03:55Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Cross-neutralising: Probing for joint encoding of linguistic information
in multilingual models [17.404220737977738]
言語間の関係を2つの最先端多言語モデルにエンコードする方法について検討する。
その結果,言語特性は類型的に類似した言語間で共同でコード化されていることが示唆された。
論文 参考訳(メタデータ) (2020-10-24T07:55:32Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - Multi-timescale Representation Learning in LSTM Language Models [69.98840820213937]
言語モデルは、非常に短いから非常に長いまでの時間スケールで単語間の統計的依存関係を捉えなければならない。
我々は、長期記憶言語モデルにおけるメモリゲーティング機構が、パワーローの減衰を捉えることができるかの理論を導出した。
実験の結果,自然言語で学習したLSTM言語モデルは,この理論分布を近似することがわかった。
論文 参考訳(メタデータ) (2020-09-27T02:13:38Z) - Rnn-transducer with language bias for end-to-end Mandarin-English
code-switching speech recognition [58.105818353866354]
本稿では,言語バイアスを考慮したリカレントニューラルネットワークトランスデューサ(RNN-T)モデルを提案する。
我々は、CSの点を予測するためにモデルにバイアスを与えるために、言語アイデンティティを使用する。
これにより、言語識別情報を転写から直接学習するモデルが促進され、追加のLIDモデルが不要になる。
論文 参考訳(メタデータ) (2020-02-19T12:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。