論文の概要: ISPA: Inter-Species Phonetic Alphabet for Transcribing Animal Sounds
- arxiv url: http://arxiv.org/abs/2402.03269v1
- Date: Mon, 5 Feb 2024 18:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 14:19:38.188291
- Title: ISPA: Inter-Species Phonetic Alphabet for Transcribing Animal Sounds
- Title(参考訳): ispa:動物音の書き起こしのための種間音素アルファベット
- Authors: Masato Hagiwara, Marius Miron, Jen-Yu Liu
- Abstract要約: 動物音をテキストに変換するための正確で簡潔かつ解釈可能なシステムISPA(Inter-Species Phonetic Alphabet)を紹介する。
我々は,言語モデルのような,確立された言語MLパラダイムやモデルが,性能向上のためにうまく適用可能であることを示す。
- 参考スコア(独自算出の注目度): 6.751004034983776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditionally, bioacoustics has relied on spectrograms and continuous,
per-frame audio representations for the analysis of animal sounds, also serving
as input to machine learning models. Meanwhile, the International Phonetic
Alphabet (IPA) system has provided an interpretable, language-independent
method for transcribing human speech sounds. In this paper, we introduce ISPA
(Inter-Species Phonetic Alphabet), a precise, concise, and interpretable system
designed for transcribing animal sounds into text. We compare acoustics-based
and feature-based methods for transcribing and classifying animal sounds,
demonstrating their comparable performance with baseline methods utilizing
continuous, dense audio representations. By representing animal sounds with
text, we effectively treat them as a "foreign language," and we show that
established human language ML paradigms and models, such as language models,
can be successfully applied to improve performance.
- Abstract(参考訳): 伝統的に生物音響学は、動物音の分析のためのスペクトログラムと連続的なフレーム毎の音声表現に依存しており、機械学習モデルへの入力にも役立っている。
一方、IPA(International Phonetic Alphabet)システムは、人間の音声を翻訳するための解釈可能な言語に依存しない方法を提供している。
本稿では,動物音のテキスト化を目的とした,正確で簡潔かつ解釈可能なISPA(Inter-Species Phonetic Alphabet)を提案する。
動物の音の書き起こしと分類のための音響的手法と特徴的手法を比較し,連続的・密集した音声表現を用いたベースライン法と同等の性能を示す。
動物音をテキストで表現することで「外部言語」として効果的に扱うことができ、言語モデルのような確立された人間の言語MLパラダイムやモデルが、性能向上のためにうまく適用可能であることを示す。
関連論文リスト
- Encoding of lexical tone in self-supervised models of spoken language [3.7270979204213446]
本稿では,音声言語モデル(SLM)のトーン符号化機能の解析を目的とした。
SLMは、非音節言語からのデータに基づいて訓練された場合でも、語彙のトーンをかなりの程度にエンコードすることを示す。
SLMは音色や子音の知覚研究において、母国人や非母国人と同様に振る舞う。
論文 参考訳(メタデータ) (2024-03-25T15:28:38Z) - Phonetic and Lexical Discovery of a Canine Language using HuBERT [40.578021131708155]
本稿では,犬の発声における潜在的なコミュニケーションパターンについて検討し,従来の言語分析障壁を超越する。
本稿では,HuBERTを用いた自己教師型アプローチを提案し,音素ラベルの正確な分類を可能にした。
我々は,ユーザのアップロードした犬の音声に語彙内に存在する音素n-gramを強調表示するWebベースの犬声分類ラベリングシステムを開発した。
論文 参考訳(メタデータ) (2024-02-25T04:35:45Z) - AudioPaLM: A Large Language Model That Can Speak and Listen [79.44757696533709]
本稿では,音声理解・生成のための大規模言語モデルであるAudioPaLMを紹介する。
AudioPaLMはテキストベースの言語モデルと音声ベースの言語モデルを融合する。
音声認識や音声音声翻訳などの応用により、テキストと音声を処理および生成することができる。
論文 参考訳(メタデータ) (2023-06-22T14:37:54Z) - How Generative Spoken Language Modeling Encodes Noisy Speech:
Investigation from Phonetics to Syntactics [33.070158866023]
生成音声言語モデリング(GSLM)は、音声分析と合成のための音素ではなく、データから派生した学習シンボルを使用する。
本稿では,GSLMの音声・音声レベルにおける符号化と復号化の有効性について述べる。
論文 参考訳(メタデータ) (2023-06-01T14:07:19Z) - Wav-BERT: Cooperative Acoustic and Linguistic Representation Learning
for Low-Resource Speech Recognition [159.9312272042253]
Wav-BERTは、協調的な音響および言語表現学習法である。
我々は、事前訓練された音響モデル(wav2vec 2.0)と言語モデル(BERT)をエンドツーエンドのトレーニング可能なフレームワークに統合する。
論文 参考訳(メタデータ) (2021-09-19T16:39:22Z) - Differentiable Allophone Graphs for Language-Universal Speech
Recognition [77.2981317283029]
言語ユニバーサル音声認識システムを構築するには、言語間で共有可能な音声の音韻単位を生成する必要がある。
本稿では,音素転写と音声-音素マッピングのみから,音素レベルの監視を導出するための一般的な枠組みを提案する。
我々は,各言語に対する可読確率的音声-音素マッピングを用いた普遍的な電話ベース音声認識モデルを構築した。
論文 参考訳(メタデータ) (2021-07-24T15:09:32Z) - Direct speech-to-speech translation with discrete units [64.19830539866072]
本稿では、中間テキスト生成に頼ることなく、ある言語から別の言語に音声を変換する直接音声音声翻訳(S2ST)モデルを提案する。
そこで本稿では,ラベルなし音声コーパスから学習した自己教師付き離散表現の予測を提案する。
対象のテキスト書き起こしが利用可能となると、同一の推論パスで2つのモード出力(音声とテキスト)を同時に生成できる、共同音声認識とテキストトレーニングを備えたマルチタスク学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-07-12T17:40:43Z) - Leveraging Pre-trained Language Model for Speech Sentiment Analysis [58.78839114092951]
本研究では、事前学習された言語モデルを用いて、文章の感情情報を学習し、音声の感情分析を行う。
本稿では,言語モデルを用いた擬似ラベルに基づく半教師付き訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-06-11T20:15:21Z) - SPLAT: Speech-Language Joint Pre-Training for Spoken Language
Understanding [61.02342238771685]
音声理解には、入力音響信号を解析してその言語内容を理解し、予測するモデルが必要である。
大規模無注釈音声やテキストからリッチな表現を学習するために,様々な事前学習手法が提案されている。
音声と言語モジュールを協調的に事前学習するための,新しい半教師付き学習フレームワークであるSPLATを提案する。
論文 参考訳(メタデータ) (2020-10-05T19:29:49Z) - CSTNet: Contrastive Speech Translation Network for Self-Supervised
Speech Representation Learning [11.552745999302905]
7000の言語のうち、半数以上が絶滅の危機にさらされている。
音声に対応するテキスト翻訳は比較的容易である。
音声から言語表現を抽出できる畳み込みニューラルネットワークオーディオエンコーダを構築する。
論文 参考訳(メタデータ) (2020-06-04T12:21:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。