論文の概要: Neural Induction of Finite-State Transducers
- arxiv url: http://arxiv.org/abs/2601.10918v1
- Date: Fri, 16 Jan 2026 00:26:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.316442
- Title: Neural Induction of Finite-State Transducers
- Title(参考訳): 有限状態トランスデューサのニューラル誘導
- Authors: Michael Ginn, Alexis Palmer, Mans Hulden,
- Abstract要約: ニューラルネットワークによって学習された隠れ状態幾何に従って、非重み付き有限状態トランスデューサ(FST)を自動的に構築する新しい手法を提案する。
提案手法は, 実世界の形態変化, グラファイム・音素予測, および歴史的正規化のためのデータセット上で評価され, 構築されたFSTが多くのデータセットに対して極めて正確かつ堅牢であることを示す。
- 参考スコア(独自算出の注目度): 13.274838371184432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finite-State Transducers (FSTs) are effective models for string-to-string rewriting tasks, often providing the efficiency necessary for high-performance applications, but constructing transducers by hand is difficult. In this work, we propose a novel method for automatically constructing unweighted FSTs following the hidden state geometry learned by a recurrent neural network. We evaluate our methods on real-world datasets for morphological inflection, grapheme-to-phoneme prediction, and historical normalization, showing that the constructed FSTs are highly accurate and robust for many datasets, substantially outperforming classical transducer learning algorithms by up to 87% accuracy on held-out test sets.
- Abstract(参考訳): 有限状態トランスデューサ(FST)は文字列から文字列への書き換え作業に有効なモデルであり、高性能なアプリケーションに必要な効率性を提供することが多いが、手動でトランスデューサを構築することは困難である。
本研究では,再帰型ニューラルネットワークによって学習された隠れ状態幾何に従って,非重み付きFSTを自動的に構築する新しい手法を提案する。
提案手法は, 実世界のモーフィック・インフレクション, グラファイム・ツー・音素予測, 歴史的正規化のデータセットにおいて評価され, 構築されたFSTが多くのデータセットに対して極めて正確かつ堅牢であることを示し, 保持されたテストセットに対して最大87%の精度で古典的トランスデューサ学習アルゴリズムを著しく上回った。
関連論文リスト
- WST: Weakly Supervised Transducer for Automatic Speech Recognition [26.373816643181843]
Weakly Supervised Transducer (WST) は、追加の信頼度推定や補助的な事前訓練モデルを必要とすることなく、書き起こし中のエラーを堅牢に処理するように設計されている。
合成データセットと工業データセットの実証評価により、WSTは最大70%の転写誤り率でも性能を効果的に維持できることが示された。
論文 参考訳(メタデータ) (2025-11-06T04:14:07Z) - Enhancing Sequential Model Performance with Squared Sigmoid TanH (SST) Activation Under Data Constraints [1.8624274002327752]
本研究では,データ制約下での逐次モデルの学習能力を高めるために,SST(Sigmoid TanH)アクティベーションの2乗化を提案する。
SSTは、信号が時間とともに伝播するにつれて、強い活性化と弱い活性化の差を増幅するために数学的なスクアリングを適用している。
我々は,手話認識,回帰,時系列分類タスクなどの多様なアプリケーションに対して,SSTを利用したLSTMとGRUを評価した。
論文 参考訳(メタデータ) (2024-02-14T09:20:13Z) - SIP: Injecting a Structural Inductive Bias into a Seq2Seq Model by Simulation [75.14793516745374]
本稿では, 構造的帰納バイアスをセック2セックモデルに効率よく注入し, 合成データの構造的変換をシミュレートする方法について述べる。
実験の結果,本手法は所望の帰納バイアスを付与し,FSTのようなタスクに対してより優れた数発学習を実現することがわかった。
論文 参考訳(メタデータ) (2023-10-01T21:19:12Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。