論文の概要: MFST: A Python OpenFST Wrapper With Support for Custom Semirings and
Jupyter Notebooks
- arxiv url: http://arxiv.org/abs/2012.03437v1
- Date: Mon, 7 Dec 2020 03:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 07:29:26.498774
- Title: MFST: A Python OpenFST Wrapper With Support for Custom Semirings and
Jupyter Notebooks
- Title(参考訳): mfst:カスタムセミリングとjupyterノートブックをサポートするpythonのopenfstラッパー
- Authors: Matthew Francis-Landau
- Abstract要約: mFSTは、OpenFSTをベースとしたFinite-State Machinesで動作するPythonライブラリである。
mFSTは、FSTの重みを学習したり、ニューラルネットワークFSTを作成するモデルを開発するのに最適である。
- 参考スコア(独自算出の注目度): 0.30458514384586394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces mFST, a new Python library for working with
Finite-State Machines based on OpenFST. mFST is a thin wrapper for OpenFST and
exposes all of OpenFST's methods for manipulating FSTs. Additionally, mFST is
the only Python wrapper for OpenFST that exposes OpenFST's ability to define a
custom semirings. This makes mFST ideal for developing models that involve
learning the weights on a FST or creating neuralized FSTs. mFST has been
designed to be easy to get started with and has been previously used in
homework assignments for a NLP class as well in projects for integrating FSTs
and neural networks. In this paper, we exhibit mFST API and how to use mFST to
build a simple neuralized FST with PyTorch.
- Abstract(参考訳): 本稿では,OpenFSTに基づくFinite-State Machinesで動作する新しいPythonライブラリであるmFSTを紹介する。
mFSTはOpenFSTの薄いラッパーであり、FSTを操作するOpenFSTのすべてのメソッドを公開する。
さらに、mFSTはOpenFST用の唯一のPythonラッパーであり、OpenFSTのカスタムセミリングを定義する能力を公開する。
これによりmFSTは、FSTの重みを学習したり、ニューラルネットワークFSTを作成するモデルを開発するのに理想的になる。
mFSTは簡単に始められるように設計されており、以前はNLPクラスの宿題や、FSTとニューラルネットワークを統合するプロジェクトで使われてきた。
本稿では,mFST APIとmFSTを用いてPyTorchを用いた単純なニューラルネットワークFSTを構築する方法について述べる。
関連論文リスト
- CMU's IWSLT 2024 Simultaneous Speech Translation System [80.15755988907506]
本稿では,CMU による IWSLT 2024 Simultaneous Speech Translation (SST) タスクへの提案について述べる。
本システムでは,WavLM音声エンコーダ,モダリティアダプタ,Llama2-7B-Baseモデルをデコーダとして統合する。
論文 参考訳(メタデータ) (2024-08-14T10:44:51Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - KerasCV and KerasNLP: Vision and Language Power-Ups [9.395199188271254]
KerasCVとKerasNLPはコンピュータビジョンと自然言語処理のためのKeras APIの拡張である。
これらのドメインパッケージは、使いやすさとパフォーマンスを重視した高速な実験を可能にするように設計されている。
ライブラリは完全にオープンソース(Apache 2.0ライセンス)で、GitHubから入手できる。
論文 参考訳(メタデータ) (2024-05-30T16:58:34Z) - Keeping LLMs Aligned After Fine-tuning: The Crucial Role of Prompt
Templates [59.0123809721502]
本稿では、安全プロンプトを使わずに、テスト時に組み込む"Pure Tuning, Safe Testing"(PTST)の原則を提案する。
GSM8K、ChatDoctor、OpenOrcaの微調整実験は、PTSTが安全でない振る舞いの増大を著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-02-28T18:23:49Z) - Disentangling Spatial and Temporal Learning for Efficient Image-to-Video
Transfer Learning [59.26623999209235]
ビデオの空間的側面と時間的側面の学習を両立させるDiSTを提案する。
DiSTの非絡み合い学習は、大量の事前学習パラメータのバックプロパゲーションを避けるため、非常に効率的である。
5つのベンチマークの大規模な実験は、DiSTが既存の最先端メソッドよりも優れたパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2023-09-14T17:58:33Z) - PromptAttack: Probing Dialogue State Trackers with Adversarial Prompts [25.467840115593784]
現代の会話システムの主要なコンポーネントは、対話状態追跡器(DST)である。
そこで本稿では,DSTモデルを探索する効果的な逆例を自動生成する,プロンプトベースの学習手法を提案する。
生成した相手のサンプルが、相手のトレーニングを通じてDSTをどの程度強化できるかを示す。
論文 参考訳(メタデータ) (2023-06-07T15:41:40Z) - TabPFN: A Transformer That Solves Small Tabular Classification Problems
in a Second [48.87527918630822]
トレーニングされたトランスフォーマーであるTabPFNは、小さなデータセットの教師付き分類を1秒以内で行うことができる。
TabPFNはコンテキスト内学習(ICL)を行い、ラベル付きサンプルのシーケンスを使用して予測を行う。
提案手法は, 強化木よりも明らかに優れており, 230$times$ Speedupの複雑なAutoMLシステムと同等性能を示す。
論文 参考訳(メタデータ) (2022-07-05T07:17:43Z) - Neural-FST Class Language Model for End-to-End Speech Recognition [30.670375747577694]
エンドツーエンド音声認識のためのニューラルFSTクラス言語モデル(NFCLM)を提案する。
その結果,NFCLMは単語誤り率においてNNLMを15.8%上回っていることがわかった。
論文 参考訳(メタデータ) (2022-01-28T00:20:57Z) - Prompt Learning for Few-Shot Dialogue State Tracking [75.50701890035154]
本稿では,限られたラベル付きデータを用いて,対話状態追跡(DST)モデルを効率的に学習する方法に焦点を当てる。
本稿では,2つの主要なコンポーネントである値ベースプロンプトと逆プロンプト機構からなる,数ショットDSTのためのプロンプト学習フレームワークを設計する。
実験により、我々のモデルは未確認のスロットを生成し、既存の最先端の数ショット法より優れていることが示された。
論文 参考訳(メタデータ) (2022-01-15T07:37:33Z) - OpenFL: An open-source framework for Federated Learning [41.03632020180591]
Federated Learning(FL)は、組織が機密データを共有せずに機械学習(ML)プロジェクトに協力できる計算パラダイムである。
OpenFLは、FLのデータプライベート共同学習パラダイムを使用してMLアルゴリズムを訓練するためのオープンソースのフレームワークです。
論文 参考訳(メタデータ) (2021-05-13T16:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。