論文の概要: Chimpanzee voice prints? Insights from transfer learning experiments
from human voices
- arxiv url: http://arxiv.org/abs/2112.08165v1
- Date: Wed, 15 Dec 2021 14:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 17:19:26.109138
- Title: Chimpanzee voice prints? Insights from transfer learning experiments
from human voices
- Title(参考訳): チンパンジーの音声プリント?
人声からの伝達学習実験からの洞察
- Authors: Mael Leroux, Orestes Gutierrez Al-Khudhairy, Nicolas Perony, Simon W.
Townsend
- Abstract要約: 私たちは、チンパンジーの音声プリントを特定するために、1万以上の人間の音声プリントに基づいて訓練されたディープニューラルネットワークを使用します。
従来の音響特性を用いて得られた結果と比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Individual vocal differences are ubiquitous in the animal kingdom. In humans,
these differences pervade the entire vocal repertoire and constitute a "voice
print". Apes, our closest-living relatives, possess individual signatures
within specific call types, but the potential for a unique voice print has been
little investigated. This is partially attributed to the limitations associated
with extracting meaningful features from small data sets. Advances in machine
learning have highlighted an alternative to traditional acoustic features,
namely pre-trained learnt extractors. Here, we present an approach building on
these developments: leveraging a feature extractor based on a deep neural
network trained on over 10,000 human voice prints to provide an informative
space over which we identify chimpanzee voice prints. We compare our results
with those obtained by using traditional acoustic features and discuss the
benefits of our methodology and the significance of our findings for the
identification of "voice prints" in non-human animals.
- Abstract(参考訳): 個々の声の差は動物界で広く見られる。
人間では、これらの違いは声のレパートリー全体に浸透し、「声のプリント」を構成する。
近親類である類人猿は、特定の呼び出しタイプ内で個々のシグネチャを持っているが、ユニークな音声プリントの可能性はほとんど調査されていない。
これは部分的には、小さなデータセットから有意義な特徴を抽出することに関連する制限に起因する。
機械学習の進歩は、従来の音響的特徴の代替、すなわち事前訓練された学習抽出器を強調している。
本稿では,1万点以上の人間の音声プリントをトレーニングしたディープニューラルネットワークに基づく特徴抽出器を利用して,チンパンジーの音声プリントを識別する情報空間を提供する。
従来の音響的特徴を用いた結果と比較し,非ヒト動物における「声紋」の同定における方法論の利点と意義について考察した。
関連論文リスト
- Multi Modal Information Fusion of Acoustic and Linguistic Data for Decoding Dairy Cow Vocalizations in Animal Welfare Assessment [0.0]
本研究では,マルチモーダルデータ融合技術を用いて乳牛の接触呼をデコードすることを目的とする。
本研究では,自然言語処理モデルを用いて,牛の発声音声の音声記録を書式に転写する。
発声は、苦痛や覚醒に関連する高頻度通話と、満足感や落ち着きに関連する低頻度通話に分類した。
論文 参考訳(メタデータ) (2024-11-01T09:48:30Z) - Sketching With Your Voice: "Non-Phonorealistic" Rendering of Sounds via Vocal Imitation [44.50441058435848]
人間の声の模倣を再現する手法を提案する。
まず、モデルの制御パラメータを調整して、音声の模倣を生成する。
人間の話者が聴取者に対して戦略的に判断する方法について,コミュニケーションの認知理論を適用した。
論文 参考訳(メタデータ) (2024-09-20T13:48:48Z) - Feature Representations for Automatic Meerkat Vocalization Classification [15.642602544201308]
本稿では,自動メエルカット発声解析のための特徴表現について検討する。
2つのデータセットを対象としたコールタイプ分類研究により、人間の音声処理のために開発された特徴抽出法が、自動メエルカット呼分析に効果的に活用できることが明らかになった。
論文 参考訳(メタデータ) (2024-08-27T10:51:51Z) - Towards Dog Bark Decoding: Leveraging Human Speech Processing for Automated Bark Classification [23.974783158267428]
犬の樹皮分類課題に対処するために,人間の音声で事前訓練した自己教師付き音声表現モデルの利用について検討する。
音声埋め込み表現の使用は、より単純な分類基準よりも大幅に改善されることを示す。
また、大規模人間の音声音響学で事前訓練されたモデルでは、いくつかのタスクでさらなる性能向上が期待できる。
論文 参考訳(メタデータ) (2024-04-29T14:41:59Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Preliminary study on using vector quantization latent spaces for TTS/VC
systems with consistent performance [55.10864476206503]
本稿では,潜在言語埋め込みをモデル化するための量子化ベクトルの利用について検討する。
トレーニングにおいて、潜伏空間上の異なるポリシーを強制することにより、潜伏言語埋め込みを得ることができる。
実験の結果,ベクトル量子化法で構築した音声クローニングシステムは,知覚的評価の点でわずかに劣化していることがわかった。
論文 参考訳(メタデータ) (2021-06-25T07:51:35Z) - Cetacean Translation Initiative: a roadmap to deciphering the
communication of sperm whales [97.41394631426678]
最近の研究では、非ヒト種における音響コミュニケーションを分析するための機械学習ツールの約束を示した。
マッコウクジラの大量生物音響データの収集と処理に必要な重要な要素について概説する。
開発された技術能力は、非人間コミュニケーションと動物行動研究を研究する幅広いコミュニティにおいて、クロス応用と進歩をもたらす可能性が高い。
論文 参考訳(メタデータ) (2021-04-17T18:39:22Z) - Modelling Animal Biodiversity Using Acoustic Monitoring and Deep
Learning [0.0]
本稿では,機械学習の最先端技術を用いて,時系列音声信号から特徴を自動的に抽出する手法について概説する。
得られた鳥の歌はメル周波数ケプストラム(MFC)を用いて処理され、後に多層パーセプトロン(MLP)を用いて分類される特徴を抽出する。
提案手法は感度0.74,特異度0.92,精度0.74で有望な結果を得た。
論文 参考訳(メタデータ) (2021-03-12T13:50:31Z) - An Overview of Deep-Learning-Based Audio-Visual Speech Enhancement and
Separation [57.68765353264689]
音声強調と音声分離は関連する2つの課題である。
伝統的に、これらのタスクは信号処理と機械学習技術を使って取り組まれてきた。
ディープラーニングは強力なパフォーマンスを達成するために利用されています。
論文 参考訳(メタデータ) (2020-08-21T17:24:09Z) - Vector-Quantized Timbre Representation [53.828476137089325]
本稿では, スペクトル特性の近似分解を生成的特徴の集合で学習することにより, 個々の音色をより柔軟に合成することを目的とする。
音量分布の量子化表現を学習するために、大音量から切り離された離散潜在空間を持つオートエンコーダを導入する。
オーケストラ楽器と歌唱音声間の音声の翻訳結果と、ボーカルの模倣音から楽器への変換結果について詳述する。
論文 参考訳(メタデータ) (2020-07-13T12:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。