論文の概要: fastabx: A library for efficient computation of ABX discriminability
- arxiv url: http://arxiv.org/abs/2505.02692v1
- Date: Mon, 05 May 2025 14:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.709815
- Title: fastabx: A library for efficient computation of ABX discriminability
- Title(参考訳): fastabx: ABX識別性の効率的な計算のためのライブラリ
- Authors: Maxime Poli, Emmanuel Chemla, Emmanuel Dupoux,
- Abstract要約: fastabxは、ABX識別タスクを構築するための高性能なPythonライブラリである。
ABXは、自己教師付き音声表現における音声識別性を評価するために広く使用されている。
- 参考スコア(独自算出の注目度): 14.5696754689252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce fastabx, a high-performance Python library for building ABX discrimination tasks. ABX is a measure of the separation between generic categories of interest. It has been used extensively to evaluate phonetic discriminability in self-supervised speech representations. However, its broader adoption has been limited by the absence of adequate tools. fastabx addresses this gap by providing a framework capable of constructing any type of ABX task while delivering the efficiency necessary for rapid development cycles, both in task creation and in calculating distances between representations. We believe that fastabx will serve as a valuable resource for the broader representation learning community, enabling researchers to systematically investigate what information can be directly extracted from learned representations across several domains beyond speech processing. The source code is available at https://github.com/bootphon/fastabx.
- Abstract(参考訳): ABX識別タスクを構築するための高性能Pythonライブラリであるfastabxを紹介する。
ABX(英: ABX)は、関心の一般的なカテゴリの分離の尺度である。
自己教師型音声表現における音声識別性の評価に広く用いられている。
しかし、適切なツールが欠如しているため、広く採用されている。
fastabxは、タスク作成と表現間の距離の計算の両方において、迅速な開発サイクルに必要な効率を提供しながら、どんな種類のABXタスクも構築できるフレームワークを提供することで、このギャップに対処する。
我々は、fastabxが、より広範な表現学習コミュニティにとって貴重なリソースとなると信じており、研究者は、音声処理以外のいくつかの領域において、学習された表現から直接、どんな情報を抽出できるかを体系的に研究することができる。
ソースコードはhttps://github.com/bootphon/fastabx.comで入手できる。
関連論文リスト
- AIDetx: a compression-based method for identification of machine-learning generated text [0.8411424745913135]
本稿では,データ圧縮技術を用いた機械生成テキストの検出手法であるAIDetxを紹介する。
AIDetxを2つのベンチマークデータセットで評価し,F1スコアはそれぞれ97%,99%であった。
大規模言語モデル(LLM)のような現在の手法と比較して、AIDetxはより解釈可能で計算的に効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-29T17:31:42Z) - RAGLAB: A Modular and Research-Oriented Unified Framework for Retrieval-Augmented Generation [54.707460684650584]
大きな言語モデル(LLM)は対話、推論、知識保持における人間レベルの能力を示す。
現在の研究は、LLMに外部知識を組み込むことによって、このボトルネックに対処している。
RAGLABはモジュール的で研究指向のオープンソースライブラリで、6つの既存のアルゴリズムを再現し、RAGアルゴリズムを調査するための包括的なエコシステムを提供する。
論文 参考訳(メタデータ) (2024-08-21T07:20:48Z) - SynJax: Structured Probability Distributions for JAX [3.4447129363520337]
SynJaxは、構造化分布に対する推論アルゴリズムの効率的なベクトル化実装を提供する。
データの構造を明示的にモデル化する大規模な微分可能なモデルを構築することができます。
論文 参考訳(メタデータ) (2023-08-07T04:20:38Z) - Efficient Spoken Language Recognition via Multilabel Classification [53.662747523872305]
我々のモデルは,現在の最先端手法よりも桁違いに小さく,高速でありながら,競争力のある結果が得られることを示す。
我々のマルチラベル戦略は、マルチクラス分類よりも非ターゲット言語の方が堅牢である。
論文 参考訳(メタデータ) (2023-06-02T23:04:19Z) - Evaluating the reliability of acoustic speech embeddings [10.5754802112615]
音声埋め込みは可変長音声列の定サイズ音響表現である。
ここでは,ABX識別と平均精度 (MAP) という2つの一般的な指標を,17の埋め込み手法にまたがる5つの言語で体系的に比較する。
ABXとMAPは相互に相関し,周波数推定を行う。
論文 参考訳(メタデータ) (2020-07-27T13:24:09Z) - pyBART: Evidence-based Syntactic Transformations for IE [52.93947844555369]
pyBARTは、英語のUD木を拡張UDグラフに変換するためのオープンソースのPythonライブラリである。
パターンに基づく関係抽出のシナリオで評価すると、より少ないパターンを必要としながら、より高精細なUDよりも高い抽出スコアが得られる。
論文 参考訳(メタデータ) (2020-05-04T07:38:34Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z) - OPFython: A Python-Inspired Optimum-Path Forest Classifier [68.8204255655161]
本稿では,OPFythonと表記されるPythonベースのOptimum-Path Forestフレームワークを提案する。
OPFythonはPythonベースのライブラリなので、C言語よりもフレンドリーな環境とプロトタイピングの作業スペースを提供する。
論文 参考訳(メタデータ) (2020-01-28T15:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。