論文の概要: A Parallelizable Lattice Rescoring Strategy with Neural Language Models
- arxiv url: http://arxiv.org/abs/2103.05081v1
- Date: Mon, 8 Mar 2021 21:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:49:45.046539
- Title: A Parallelizable Lattice Rescoring Strategy with Neural Language Models
- Title(参考訳): 言語モデルを用いた並列化可能な格子強調戦略
- Authors: Ke Li, Daniel Povey, Sanjeev Khudanpur
- Abstract要約: 自動音声認識のためのニューラルネットワークモデル(LM)を用いた効率的な格子相関のための後部格子拡張アルゴリズムを提案する。
スイッチボードデータセットにおける実験により,提案手法が同等の認識性能を得た。
PyTorchで訓練されたニューラル LM をKaldi との格子再構成に簡単に統合することで、並列再描画法により柔軟性が向上する。
- 参考スコア(独自算出の注目度): 62.20538383769179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a parallel computation strategy and a posterior-based
lattice expansion algorithm for efficient lattice rescoring with neural
language models (LMs) for automatic speech recognition. First, lattices from
first-pass decoding are expanded by the proposed posterior-based lattice
expansion algorithm. Second, each expanded lattice is converted into a minimal
list of hypotheses that covers every arc. Each hypothesis is constrained to be
the best path for at least one arc it includes. For each lattice, the neural LM
scores of the minimal list are computed in parallel and are then integrated
back to the lattice in the rescoring stage. Experiments on the Switchboard
dataset show that the proposed rescoring strategy obtains comparable
recognition performance and generates more compact lattices than a competitive
baseline method. Furthermore, the parallel rescoring method offers more
flexibility by simplifying the integration of PyTorch-trained neural LMs for
lattice rescoring with Kaldi.
- Abstract(参考訳): 本稿では,音声認識のためのニューラルネットワークモデル (LM) を用いた効率的な格子再構成のための並列計算手法と後進格子拡張アルゴリズムを提案する。
まず,第1パス復号からの格子を後続の格子展開アルゴリズムにより拡張する。
第二に、拡張格子はすべての弧をカバーする最小の仮説のリストに変換される。
各仮説は、それが含む少なくとも1つの弧にとって最良の経路であると制約される。
各格子に対して、最小リストの神経LMスコアは並列に計算され、その後、再相関段階の格子に再び統合される。
Switchboardデータセット上での実験により,提案手法は,競合するベースライン法よりもよりコンパクトな格子を生成する。
さらに,PyTorchをトレーニングしたニューラル LM をKaldi との格子再構成に簡単に統合することで,並列再描画法により柔軟性が向上する。
関連論文リスト
- Precise asymptotics of reweighted least-squares algorithms for linear diagonal networks [15.074950361970194]
我々は、IRLS、最近提案されたリンリン-RFMアルゴリズム、交互対角ニューラルネットワークを含むアルゴリズム群を統一的に分析する。
適切に選択された再重み付けポリシーにより、少数のスパース構造が良好な性能が得られることを示す。
また、これを再重み付け方式で活用することで、座標ワイド再重み付けよりもテスト誤差が良好に向上することを示す。
論文 参考訳(メタデータ) (2024-06-04T20:37:17Z) - Neural Lattice Reduction: A Self-Supervised Geometric Deep Learning
Approach [14.536819369925398]
本研究では,一様行列の因子を出力する深層ニューラルネットワークを設計し,非直交格子基底をペナルライズして自己指導的に学習する。
論文 参考訳(メタデータ) (2023-11-14T13:54:35Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Coordinate descent on the orthogonal group for recurrent neural network
training [9.886326127330337]
提案アルゴリズムは, 繰り返し行列の2つの列を回転させ, 与えられた行列による乗算として効率的に実装できる演算であることを示す。
提案アルゴリズムの有効性を示すために, ベンチマーク繰り返しニューラルネットワークトレーニング問題の実験を行った。
論文 参考訳(メタデータ) (2021-07-30T19:27:11Z) - Partition-based formulations for mixed-integer optimization of trained
ReLU neural networks [66.88252321870085]
本稿では,訓練されたReLUニューラルネットワークのための混合整数式について紹介する。
1つの極端な場合、入力毎に1つのパーティションがノードの凸殻、すなわち各ノードの最も厳密な可能な定式化を回復する。
論文 参考訳(メタデータ) (2021-02-08T17:27:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。