論文の概要: Phase-based Information for Voice Pathology Detection
- arxiv url: http://arxiv.org/abs/2001.00372v1
- Date: Thu, 2 Jan 2020 09:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 04:30:41.347327
- Title: Phase-based Information for Voice Pathology Detection
- Title(参考訳): 音声病理検出のための位相情報
- Authors: Thomas Drugman, Thomas Dubuisson, Thierry Dutoit
- Abstract要約: 本稿では,音声障害を自動的に検出するフェーズベース機能の可能性について検討する。
グループ遅延関数は、発声における不規則性を特徴付けるのに適切であることを示す。
- 参考スコア(独自算出の注目度): 11.481208551940998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In most current approaches of speech processing, information is extracted
from the magnitude spectrum. However recent perceptual studies have underlined
the importance of the phase component. The goal of this paper is to investigate
the potential of using phase-based features for automatically detecting voice
disorders. It is shown that group delay functions are appropriate for
characterizing irregularities in the phonation. Besides the respect of the
mixed-phase model of speech is discussed. The proposed phase-based features are
evaluated and compared to other parameters derived from the magnitude spectrum.
Both streams are shown to be interestingly complementary. Furthermore
phase-based features turn out to convey a great amount of relevant information,
leading to high discrimination performance.
- Abstract(参考訳): 音声処理の最近のほとんどのアプローチでは、等級スペクトルから情報を抽出する。
しかし、近年の知覚研究は相成分の重要性を強調している。
本研究の目的は,音声障害を自動的に検出するフェーズベース機能の可能性を検討することである。
グループ遅延関数は音節の不規則性を特徴付けるのに適切であることを示す。
また,音声の混合位相モデルについても考察した。
提案した位相特性を,等級スペクトルから導出した他のパラメータと比較した。
どちらのストリームも興味深い補完的であることが示されている。
さらに、フェーズベースの機能は大量の関連する情報を伝達し、高い識別性能をもたらすことが判明した。
関連論文リスト
- DiffPhase: Generative Diffusion-based STFT Phase Retrieval [15.16865739526702]
拡散確率モデルは最近、音声強調や合成を含む様々なタスクで使われている。
本研究は,位相探索に特化して音声強調拡散モデルを適用し,音声領域における過去の研究に基づいて構築する。
音声品質とインテリジェンス指標を用いた評価は, 位相探索作業に拡散アプローチが適していることを示し, 性能は古典的手法と近代的手法に勝っている。
論文 参考訳(メタデータ) (2022-11-08T15:50:35Z) - Audio Deepfake Detection Based on a Combination of F0 Information and
Real Plus Imaginary Spectrogram Features [51.924340387119415]
ASVspoof 2019 LAデータセットの実験結果から,提案手法はオーディオディープフェイク検出に非常に有効であることがわかった。
提案方式は音声深度検出作業に非常に有効であり,ほぼ全てのシステムにまたがる等価誤差率(EER)が0.43%に達する。
論文 参考訳(メタデータ) (2022-08-02T02:46:16Z) - Deep Neural Convolutive Matrix Factorization for Articulatory
Representation Decomposition [48.56414496900755]
この研究は、コンボリューティブスパース行列分解のニューラル実装を用いて、調音データを解釈可能なジェスチャーとジェスチャースコアに分解する。
音素認識実験も実施され、ジェスチャースコアが実際に音韻情報のコード化に成功していることが示された。
論文 参考訳(メタデータ) (2022-04-01T14:25:19Z) - Acoustic To Articulatory Speech Inversion Using Multi-Resolution
Spectro-Temporal Representations Of Speech Signals [5.743287315640403]
フィードフォワードディープニューラルネットワークをトレーニングし、6つのトラクト変数の明瞭な軌跡を推定する。
実験は、0.675と接地軌道変数の相関を達成した。
論文 参考訳(メタデータ) (2022-03-11T07:27:42Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Spectro-Temporal Deep Features for Disordered Speech Assessment and
Recognition [65.25325641528701]
音声スペクトルのSVD分解による深い特徴を埋め込んだ新しいスペクトル時空間ベースを提案する。
UASpeechコーパスで行った実験では、提案された分光時間深部特徴適応システムは、データ拡張の有無にかかわらず、ワードエラー率(WER)を最大263%(相対8.6%)削減することで、ベースラインi-適応を一貫して上回ったことが示唆された。
論文 参考訳(メタデータ) (2022-01-14T16:56:43Z) - Deep Learning For Prominence Detection In Children's Read Speech [13.041607703862724]
本稿では, 幼児の口臭度評価に際し, 単語検出に係わる特徴を学習するためのセグメント音声波形を用いたシステムを提案する。
単語レベルの特徴とシーケンス情報の両方を取り入れた選択されたCRNN(畳み込みリカレントニューラルネットワーク)フレームワークは、知覚的に動機付けられたSincNetフィルタの恩恵を受けている。
論文 参考訳(メタデータ) (2021-10-27T08:51:42Z) - An Overview of Deep-Learning-Based Audio-Visual Speech Enhancement and
Separation [57.68765353264689]
音声強調と音声分離は関連する2つの課題である。
伝統的に、これらのタスクは信号処理と機械学習技術を使って取り組まれてきた。
ディープラーニングは強力なパフォーマンスを達成するために利用されています。
論文 参考訳(メタデータ) (2020-08-21T17:24:09Z) - Identification of primary and collateral tracks in stuttered speech [22.921077940732]
臨床およびNLPパースペクティブに着想を得て, 拡散検出のための新しい評価フレームワークを提案する。
本稿では, 半方向性インタビューのコーパスから, 強制整列型ディスフルエンシデータセットを提案する。
単語ベースのスパン特徴を用いることで,音声による予測のベースラインよりも優れることを示す。
論文 参考訳(メタデータ) (2020-03-02T16:50:33Z) - Temporal-Spatial Neural Filter: Direction Informed End-to-End
Multi-channel Target Speech Separation [66.46123655365113]
ターゲット音声分離とは、混合信号からターゲット話者の音声を抽出することを指す。
主な課題は、複雑な音響環境とリアルタイム処理の要件である。
複数話者混合から対象音声波形を直接推定する時間空間ニューラルフィルタを提案する。
論文 参考訳(メタデータ) (2020-01-02T11:12:50Z) - On the Mutual Information between Source and Filter Contributions for
Voice Pathology Detection [11.481208551940998]
本稿では,音声信号から直接音声の病状を自動的に検出する問題に対処する。
音声や声帯信号に関連があるか,韻律に関連があるかによって,3つの特徴セットが提案される。
論文 参考訳(メタデータ) (2020-01-02T10:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。