論文の概要: An End-to-end Chinese Text Normalization Model based on Rule-guided
Flat-Lattice Transformer
- arxiv url: http://arxiv.org/abs/2203.16954v1
- Date: Thu, 31 Mar 2022 11:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 16:15:50.836175
- Title: An End-to-end Chinese Text Normalization Model based on Rule-guided
Flat-Lattice Transformer
- Title(参考訳): 規則誘導フラット格子変換器を用いた中国語テキスト正規化モデル
- Authors: Wenlin Dai, Changhe Song, Xiang Li, Zhiyong Wu, Huashan Pan, Xiulin
Li, Helen Meng
- Abstract要約: 本稿では,漢字を直接入力として受け入れるエンドツーエンドの中国語テキスト正規化モデルを提案する。
また、中国語のテキスト正規化のための、初めて一般公開された大規模データセットもリリースしました。
- 参考スコア(独自算出の注目度): 37.0774363352316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text normalization, defined as a procedure transforming non standard words to
spoken-form words, is crucial to the intelligibility of synthesized speech in
text-to-speech system. Rule-based methods without considering context can not
eliminate ambiguation, whereas sequence-to-sequence neural network based
methods suffer from the unexpected and uninterpretable errors problem. Recently
proposed hybrid system treats rule-based model and neural model as two cascaded
sub-modules, where limited interaction capability makes neural network model
cannot fully utilize expert knowledge contained in the rules. Inspired by
Flat-LAttice Transformer (FLAT), we propose an end-to-end Chinese text
normalization model, which accepts Chinese characters as direct input and
integrates expert knowledge contained in rules into the neural network, both
contribute to the superior performance of proposed model for the text
normalization task. We also release a first publicly accessible largescale
dataset for Chinese text normalization. Our proposed model has achieved
excellent results on this dataset.
- Abstract(参考訳): 非標準語から話し言葉へ変換する手順として定義されるテキスト正規化は、テキスト音声合成システムにおける合成音声の理解性に不可欠である。
文脈を考慮せずにルールベースの手法は曖昧さを排除できないが、シーケンスからシーケンスまでのニューラルネットワークベースの手法は予期せぬ、解釈不能なエラー問題に悩まされる。
最近提案されたハイブリッドシステムは、ルールベースのモデルとニューラルネットワークモデルを2つのカスケードされたサブモジュールとして扱う。
フラット・ラティス・トランスフォーマー(flat)に触発されて,漢字を直接入力として受け入れ,ルールに含まれる専門知識をニューラルネットワークに統合したエンドツーエンドの中国語テキスト正規化モデルを提案する。
また,中国語テキスト正規化のための大規模なデータセットも公開しています。
提案モデルは,このデータセットで優れた結果を得た。
関連論文リスト
- A Transformer-based Approach for Arabic Offline Handwritten Text
Recognition [0.0]
オフラインのアラビア文字を認識できるアーキテクチャを2つ導入する。
私たちのアプローチは言語依存をモデル化することができ、注意機構のみに依存するので、より並列化可能で、より複雑ではありません。
アラビアKHATTデータセットの評価は,提案手法が現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-27T17:51:52Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Shallow Fusion of Weighted Finite-State Transducer and Language Model
for Text Normalization [13.929356163132558]
ルールベースとニューラルシステムの利点を組み合わせた新しいハイブリッドアプローチを提案する。
まず、非決定論的WFSTはすべての正規化候補を出力し、次にニューラルネットワークモデルが最良の候補を選択する。
既存の最先端のTNモデルに匹敵する、あるいは優れた結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T21:34:35Z) - Factorized Neural Transducer for Efficient Language Model Adaptation [51.81097243306204]
空白および語彙予測を分解し,ニューラルトランスデューサの因子化モデルを提案する。
この因子化は、音声認識のためのトランスデューサにスタンドアロン言語モデルの改善を移すことが期待できる。
提案した因子化ニューラルトランスデューサは、言語モデル適応にドメイン外テキストデータを使用する場合、15%から20%のWER改善が得られることを示す。
論文 参考訳(メタデータ) (2021-09-27T15:04:00Z) - Sequence-to-Sequence Learning with Latent Neural Grammars [12.624691611049341]
ニューラルネットワークを用いたシーケンス対シーケンス学習は、シーケンス予測タスクのデファクトスタンダードとなっている。
フレキシブルでパフォーマンスが高いが、これらのモデルはトレーニングのために大きなデータセットを必要とすることが多く、構成の一般化をテストするために設計されたベンチマークで驚くほど失敗することがある。
この研究は、準同期文法を用いたシーケンシャル・ツー・シークエンス学習の代替的、階層的アプローチを探求する。
論文 参考訳(メタデータ) (2021-09-02T17:58:08Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Neural Inverse Text Normalization [11.240669509034298]
逆テキスト正規化のための効率的かつ堅牢なニューラルソリューションを提案する。
言語の専門家が手作業でカリキュラムを作成する必要なく、他の言語に簡単に拡張できることが示される。
プリトレーニングと融合したトランスベースモデルは、複数のデータセットで一貫して低いwerを達成する。
論文 参考訳(メタデータ) (2021-02-12T07:53:53Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - DiscreTalk: Text-to-Speech as a Machine Translation Problem [52.33785857500754]
本稿ではニューラルマシン翻訳(NMT)に基づくエンドツーエンドテキスト音声合成(E2E-TTS)モデルを提案する。
提案モデルは,非自己回帰ベクトル量子化変分オートエンコーダ(VQ-VAE)モデルと自己回帰トランスフォーマー-NMTモデルという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-05-12T02:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。