論文の概要: Composing RNNs and FSTs for Small Data: Recovering Missing Characters in
Old Hawaiian Text
- arxiv url: http://arxiv.org/abs/2208.10248v1
- Date: Sun, 24 Jul 2022 00:46:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-08-28 22:33:37.901702
- Title: Composing RNNs and FSTs for Small Data: Recovering Missing Characters in
Old Hawaiian Text
- Title(参考訳): 小型データのためのRNNとFSTの構成:ハワイ古文の欠落文字の検索
- Authors: Oiwi Parker Jones and Brendan Shillingford
- Abstract要約: 現代のハワイの正書法では、長母音と声門停止のための文字が使用されている。
古いテキストと新しいテキストの書き起こしは、手作業で行うと面倒な作業である。
本稿では,この翻訳問題を自動的に解くための2つの関連手法を提案する。
- 参考スコア(独自算出の注目度): 6.040512096438984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In contrast to the older writing system of the 19th century, modern Hawaiian
orthography employs characters for long vowels and glottal stops. These extra
characters account for about one-third of the phonemes in Hawaiian, so
including them makes a big difference to reading comprehension and
pronunciation. However, transliterating between older and newer texts is a
laborious task when performed manually. We introduce two related methods to
help solve this transliteration problem automatically, given that there were
not enough data to train an end-to-end deep learning model. One method is
implemented, end-to-end, using finite state transducers (FSTs). The other is a
hybrid deep learning approach which approximately composes an FST with a
recurrent neural network (RNN). We find that the hybrid approach outperforms
the end-to-end FST by partitioning the original problem into one part that can
be modelled by hand, using an FST, and into another part, which is easily
solved by an RNN trained on the available data.
- Abstract(参考訳): 19世紀の古い文字体系とは対照的に、現代のハワイ語正書法は長い母音と声門の停止のために文字を使用している。
これらの余分な文字はハワイ語の音韻の約3分の1を占めるため、それらを含め、読み理解と発音に大きな違いがある。
しかし、手作業で古いテキストと新しいテキストを転写するのは大変な作業である。
エンド・ツー・エンドのディープラーニングモデルをトレーニングするのに十分なデータがないことを考慮し、この翻訳問題を解決するための2つの関連手法を提案する。
1つの方法は有限状態トランスデューサ(FST)を用いてエンドツーエンドに実装される。
もうひとつは、リカレントニューラルネットワーク(RNN)とFSTを略して構成するハイブリッドディープラーニングアプローチである。
本手法は,従来の問題をFSTを用いて手作業でモデル化できる部分と,利用可能なデータに基づいて訓練されたRNNによって容易に解ける部分に分割することで,エンドツーエンドのFSTよりも優れていることがわかった。
関連論文リスト
- Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Contrastive Learning-Based Audio to Lyrics Alignment for Multiple
Languages [10.42629447317569]
最先端システムは、確立された音声認識ツールキットを再使用するか、エンドツーエンドのソリューションを設計するかのいずれかである。
本稿では、音声とテキストのドメインをリンクするクロスモーダルな埋め込みを導出するコントラスト学習手法を用いる。
このようにして、エンドツーエンドのトレーニングが簡単で、弱い注釈付きトレーニングデータを使用し、強力なテキストモデルを共同で学習し、アライメントに合わせて調整できる新しいシステムを得る。
論文 参考訳(メタデータ) (2023-06-13T13:01:02Z) - Three ways to improve feature alignment for open vocabulary detection [88.65076922242184]
ゼロショットオープンボキャブラリ検出の鍵となる問題は、視覚的特徴とテキスト的特徴の整合性である。
以前のアプローチでは、特徴ピラミッドと検出ヘッドをゼロからトレーニングし、事前トレーニング中に確立された視覚テキストの特徴アライメントを壊す。
本稿では,これらの問題を緩和する3つの方法を提案する。まず,テキストの埋め込みを強化するための簡単なスキームを用いて,学習中に見られる少数のクラスへの過度な適合を防止する。
次に、特徴ピラミッドネットワークと検出ヘッドをトレーニング可能なショートカットを含むように変更する。
最後に、より大きなコーパスを活用するために、自己学習アプローチが使用される。
論文 参考訳(メタデータ) (2023-03-23T17:59:53Z) - DuNST: Dual Noisy Self Training for Semi-Supervised Controllable Text
Generation [34.49194429157166]
ラベル付きデータが不十分な場合、事前学習された言語モデルの微調整を増強することにより、言語理解において再び自己学習(ST)が向上した。
STを属性制御可能な言語生成に組み込むことは依然として困難である。
論文 参考訳(メタデータ) (2022-12-16T21:44:34Z) - Boosting offline handwritten text recognition in historical documents
with few labeled lines [5.9207487081080705]
大規模データベースからより小さな歴史データベースへの転送学習の方法を分析する。
第2に、TLとデータ拡張を効率的に組み合わせる手法を解析する。
トレーニングセットにおける誤りラベリングの効果を緩和するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T11:59:35Z) - Decoupling Pronunciation and Language for End-to-end Code-switching
Automatic Speech Recognition [66.47000813920617]
本稿では,モノリンガルペアデータと未ペアテキストデータを利用するデカップリング変換器モデルを提案する。
モデルはA2P(Audio-to-phoneme)ネットワークとP2T(P2T)ネットワークの2つの部分に分けられる。
モノリンガルデータと未ペアテキストデータを使用することで、分離されたトランスフォーマーモデルは、E2Eモデルのコードスイッチングペアリングトレーニングデータへの高依存性を低減する。
論文 参考訳(メタデータ) (2020-10-28T07:46:15Z) - Integrating end-to-end neural and clustering-based diarization: Getting
the best of both worlds [71.36164750147827]
クラスタリングに基づくアプローチでは、xベクトルのような話者埋め込みをクラスタリングすることで、話者ラベルを音声領域に割り当てる。
EEND(End-to-end Neural Diarization)は、ニューラルネットワークを使用してダイアリゼーションラベルを直接予測する。
重なり合う音声と、任意の数の話者を含む長い録音のために、単純だが効果的なハイブリッドダイアリゼーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-26T06:33:02Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Offline Handwritten Chinese Text Recognition with Convolutional Neural
Networks [5.984124397831814]
本稿では,畳み込みニューラルネットワークのみを用いてモデルを構築し,CTCを損失関数として利用する。
ICDAR 2013のコンペでは6.81%の文字誤り率(CER)を達成した。
論文 参考訳(メタデータ) (2020-06-28T14:34:38Z) - Wake Word Detection with Alignment-Free Lattice-Free MMI [66.12175350462263]
音声言語インタフェース、例えばパーソナルデジタルアシスタントは、音声入力の処理を開始するためにウェイクワードに依存している。
本稿では,部分的にラベル付けされたトレーニングデータから,ハイブリッドDNN/HMM覚醒単語検出システムの学習方法を提案する。
提案手法を2つの実データ集合上で評価し, 前報よりも50%~90%の誤報率の減少率を示した。
論文 参考訳(メタデータ) (2020-05-17T19:22:25Z) - Transliteration of Judeo-Arabic Texts into Arabic Script Using Recurrent
Neural Networks [1.933681537640272]
我々は、ユダヤ・アラビア文字をアラビア語の文字に自動翻訳するモデルを訓練する。
我々は、リカレントニューラルネットワーク(RNN)とコネクショニスト時間分類(CTC)の損失を併用して、不平等な入出力長を扱う。
ベースラインの9.5%の文字エラーに対して改善を行い、最高の設定で2%のエラーを達成した。
論文 参考訳(メタデータ) (2020-04-23T18:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。