論文の概要: Do learned speech symbols follow Zipf's law?
- arxiv url: http://arxiv.org/abs/2309.09690v1
- Date: Mon, 18 Sep 2023 11:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:51:59.943662
- Title: Do learned speech symbols follow Zipf's law?
- Title(参考訳): 言語記号はZipfの法則に従うか?
- Authors: Shinnosuke Takamichi, Hiroki Maeda, Joonyong Park, Daisuke Saito, and
Hiroshi Saruwatari
- Abstract要約: 深層学習を通じて学習した音声記号が、自然言語記号に類似したZipfの法則に従うか否かを検討する。
我々の目的は、これらのデータ駆動型音声シンボルが、自然言語シンボルと同様にZipfの法則に従うかどうかを確かめることである。
- 参考スコア(独自算出の注目度): 31.979675225822206
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this study, we investigate whether speech symbols, learned through deep
learning, follow Zipf's law, akin to natural language symbols. Zipf's law is an
empirical law that delineates the frequency distribution of words, forming
fundamentals for statistical analysis in natural language processing. Natural
language symbols, which are invented by humans to symbolize speech content, are
recognized to comply with this law. On the other hand, recent breakthroughs in
spoken language processing have given rise to the development of learned speech
symbols; these are data-driven symbolizations of speech content. Our objective
is to ascertain whether these data-driven speech symbols follow Zipf's law, as
the same as natural language symbols. Through our investigation, we aim to
forge new ways for the statistical analysis of spoken language processing.
- Abstract(参考訳): 本研究では, 深層学習を通じて学習した音声記号が, 自然言語記号に類似したZipfの法則に従うか否かを検討する。
Zipfの法則は、単語の頻度分布を規定する経験則であり、自然言語処理における統計解析の基礎を形成する。
音声内容の象徴として人間によって発明された自然言語記号は、この法則に従うことが認められている。
一方で、近年の音声処理におけるブレークスルーは、学習された音声シンボルの発展を招き、それらは音声コンテンツのデータ駆動のシンボル化である。
我々の目標は、これらのデータ駆動型音声記号が自然言語記号と同様にzipfの法則に従うかどうかを確認することである。
本研究は,音声処理の統計的解析のための新しい手法の構築を目的とする。
関連論文リスト
- Scaling up Multimodal Pre-training for Sign Language Understanding [96.17753464544604]
手話は、難聴者コミュニティにとってコミュニケーションの主要な意味である。
難聴者と聴覚者のコミュニケーションを容易にするために,手話理解(SLU)タスクのシリーズが研究されている。
これらの課題は、多様な視点から手話のトピックを調査し、手話ビデオの効果的な表現を学ぶ上での課題を提起する。
論文 参考訳(メタデータ) (2024-08-16T06:04:25Z) - Kiki or Bouba? Sound Symbolism in Vision-and-Language Models [13.300199242824934]
音声記号はCLIPやStable Diffusionのような視覚・言語モデルに反映されていることを示す。
我々の研究は、音の象徴性を実証し、その性質を計算ツールを用いて理解する新しい方法を提供する。
論文 参考訳(メタデータ) (2023-10-25T17:15:55Z) - Toward Joint Language Modeling for Speech Units and Text [89.32163954508489]
音声単位とテキストの共用言語モデリングについて検討する。
音声とテキストの混在度を評価するための自動計測手法を提案する。
提案手法を用いて音声単位とテキストを混合することにより,SLUタスクにおける音声のみのベースラインを改良することを示す。
論文 参考訳(メタデータ) (2023-10-12T20:53:39Z) - SpeechTokenizer: Unified Speech Tokenizer for Speech Large Language
Models [58.996653700982556]
既存の音声トークンは、特に音声言語モデリングのために設計されていない。
音声大言語モデルのための統一型音声トークンであるSpeechTokenizerを提案する。
実験により,SpeechTokenizerは音声再構成においてEnCodecと相容れない性能を示し,SLMTokBenchベンチマークで強い性能を示す。
論文 参考訳(メタデータ) (2023-08-31T12:53:09Z) - Learning Multilingual Expressive Speech Representation for Prosody
Prediction without Parallel Data [0.0]
本稿では,個別音声単位のレベルで音声から音声への感情翻訳を行う手法を提案する。
この埋め込みは、対象言語における音声単位のピッチと持続時間を予測するのに有効であることを示す。
我々は、英語とフランス語の音声信号に対する我々のアプローチを評価し、ベースライン法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-29T08:06:54Z) - "Genlangs" and Zipf's Law: Do languages generated by ChatGPT
statistically look human? [0.0]
本研究では, ChatGPT が生成した genlang が Zipf の法則に従うかどうかを検討する。
Zipfの法則は、自然および人工的に構築されたすべての人間の言語をほぼ包含する。
我々は、人間の援助により、AIは世界で初めて完全に機能する言語を作ることができると結論付けている。
論文 参考訳(メタデータ) (2023-03-31T20:10:59Z) - Pragmatic Constraint on Distributional Semantics [6.091096843566857]
Zipf-lawトークン分布は,選択したトークン化に関係なく出現することを示す。
Zipfの分布は2つの異なるトークン群によって特徴づけられ、その頻度と意味の両面で異なることを示す。
論文 参考訳(メタデータ) (2022-11-20T17:51:06Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - Law Smells: Defining and Detecting Problematic Patterns in Legal
Drafting [0.0]
法律の臭いは法文のパターンであり、法律の理解性と保守性を脅かす。
我々は,テキストベースおよびグラフベースの手法を用いて,包括的法臭い分類法を開発した。
私たちの研究は、ソフトウェアエンジニアリングのアイデアをどのように活用して法的なコードの品質を評価し改善するかを示しています。
論文 参考訳(メタデータ) (2021-10-15T06:37:13Z) - Wav2vec-Switch: Contrastive Learning from Original-noisy Speech Pairs
for Robust Speech Recognition [52.71604809100364]
音声の文脈化表現に雑音のロバスト性をエンコードするwav2vec-Switchを提案する。
具体的には、オリジナルノイズの多い音声ペアを同時にwav2vec 2.0ネットワークに供給する。
既存のコントラスト学習タスクに加えて、原音声と雑音音声の量子化表現を追加の予測対象に切り替える。
論文 参考訳(メタデータ) (2021-10-11T00:08:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。