論文の概要: AI-Driven Acoustic Voice Biomarker-Based Hierarchical Classification of Benign Laryngeal Voice Disorders from Sustained Vowels
- arxiv url: http://arxiv.org/abs/2512.24628v1
- Date: Wed, 31 Dec 2025 05:04:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.574812
- Title: AI-Driven Acoustic Voice Biomarker-Based Hierarchical Classification of Benign Laryngeal Voice Disorders from Sustained Vowels
- Title(参考訳): 持続母音からの良性喉頭声障害のAI-Driven Acoustic Voice Biomarkerに基づく階層分類
- Authors: Mohsen Annabestani, Samira Aghadoost, Anais Rameau, Olivier Elemento, Gloria Chia-Yi Chiang,
- Abstract要約: 8つの良性音声障害の自動分類のための,臨床的に着想を得た階層型機械学習フレームワークを提案する。
実験では、Saarbruecken Voice Databaseの1,261人の話者から15,132の録音を使用し、母音/a/、/i/、/u/を中性、高低、ピッチでカバーした。
- 参考スコア(独自算出の注目度): 0.26698778146977725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benign laryngeal voice disorders affect nearly one in five individuals and often manifest as dysphonia, while also serving as non-invasive indicators of broader physiological dysfunction. We introduce a clinically inspired hierarchical machine learning framework for automated classification of eight benign voice disorders alongside healthy controls, using acoustic features extracted from short, sustained vowel phonations. Experiments utilized 15,132 recordings from 1,261 speakers in the Saarbruecken Voice Database, covering vowels /a/, /i/, and /u/ at neutral, high, low, and gliding pitches. Mirroring clinical triage workflows, the framework operates in three sequential stages: Stage 1 performs binary screening of pathological versus non-pathological voices by integrating convolutional neural network-derived mel-spectrogram features with 21 interpretable acoustic biomarkers; Stage 2 stratifies voices into Healthy, Functional or Psychogenic, and Structural or Inflammatory groups using a cubic support vector machine; Stage 3 achieves fine-grained classification by incorporating probabilistic outputs from prior stages, improving discrimination of structural and inflammatory disorders relative to functional conditions. The proposed system consistently outperformed flat multi-class classifiers and pre-trained self-supervised models, including META HuBERT and Google HeAR, whose generic objectives are not optimized for sustained clinical phonation. By combining deep spectral representations with interpretable acoustic features, the framework enhances transparency and clinical alignment. These results highlight the potential of quantitative voice biomarkers as scalable, non-invasive tools for early screening, diagnostic triage, and longitudinal monitoring of vocal health.
- Abstract(参考訳): 良性喉頭声障害は5人に1人近くに影響し、しばしばディスフォニアとして現れるが、より広い生理機能障害の非侵襲的な指標として機能する。
持続母音の短い発声から抽出した音響的特徴を用いて,健常な制御とともに8つの良性音声障害を自動分類する,臨床的に着想を得た階層型機械学習フレームワークを提案する。
実験では、Saarbruecken Voice Databaseの1,261人の話者から15,132の録音を使用し、中性、高低、滑空ピッチで/a/、/i/、/u/をカバーした。
臨床トリアージワークフローを反映して、第1ステージは、21の解釈可能な音響バイオマーカーで畳み込みニューラルネットワーク由来のメル-スペクトログラム特徴を統合することによって、病的および非病理的音声のバイナリスクリーニングを行う。第2ステージは、声を、立方体支持ベクターマシンを用いて、健康性、機能的、心理的、構造的または炎症性グループに分類する。
提案方式は,META HuBERT や Google HeAR など,連続的にフラットなマルチクラス分類器や事前学習型自己教師型モデルよりも優れており,その汎用性は持続的な臨床音声に最適化されていない。
深いスペクトル表現と解釈可能な音響特徴を組み合わせることにより、透明性と臨床アライメントが向上する。
これらの結果から, 定量的音声バイオマーカーは, 早期スクリーニング, 診断トリアージ, 音声健康の経時的モニタリングのための, スケーラブルで非侵襲的なツールとしての可能性を強調した。
関連論文リスト
- Unified Multi-task Learning for Voice-Based Detection of Diverse Clinical Conditions [14.745982411183766]
プライバシを意識したマルチタスク学習フレームワークであるMARVELを,9つの異なる神経・呼吸・音声障害を同時に検出する。
当社のフレームワークは, シングルモーダルベースラインを5~19%上回り, 9タスクのうち7タスクにおいて最先端の自己監督モデルを上回っている。
論文 参考訳(メタデータ) (2025-08-28T12:37:25Z) - Voice Pathology Detection Using Phonation [0.0]
本研究では,音声の病状を検出するための機械学習フレームワークを提案する。
Saarbr"ucken Voice Databaseからの発声データを解析する。
リカレントニューラルネットワーク(RNN)は、サンプルを正常および病理学的カテゴリに分類する。
論文 参考訳(メタデータ) (2025-08-11T03:33:18Z) - Audio-Vision Contrastive Learning for Phonological Class Recognition [6.476789653980653]
実時間磁気共鳴画像(rtMRI)と音声信号を組み合わせて3つの重要な調音次元を分類する多モードディープラーニングフレームワークを提案する。
USC-TIMITデータセットによる実験結果から,我々のコントラスト学習に基づくアプローチが最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2025-07-23T16:44:22Z) - BrainECHO: Semantic Brain Signal Decoding through Vector-Quantized Spectrogram Reconstruction for Whisper-Enhanced Text Generation [48.20672677492805]
現在のEEG/MEG-to-textデコーディングシステムには3つの重要な制限がある。
BrainECHOは、分離された表現学習を利用する多段階フレームワークである。
BrainECHOは文、セッション、主題に依存しない条件をまたいだ堅牢性を示す。
論文 参考訳(メタデータ) (2024-10-19T04:29:03Z) - Homogeneous Speaker Features for On-the-Fly Dysarthric and Elderly Speaker Adaptation [71.31331402404662]
本稿では, 変形性関節症と高齢者の話者レベルの特徴を学習するための2つの新しいデータ効率手法を提案する。
話者規則化スペクトルベース埋め込み-SBE特徴は、特別な正規化項を利用して適応における話者特徴の均一性を強制する。
テスト時間適応において、話者レベルのデータ量に敏感であることが示されるVR-LH機能に規定されている特徴ベースの学習隠れユニットコントリビューション(f-LHUC)。
論文 参考訳(メタデータ) (2024-07-08T18:20:24Z) - Show from Tell: Audio-Visual Modelling in Clinical Settings [58.88175583465277]
臨床環境でのオーディオ・ビジュアル・モデリングを考察し、人間の専門的アノテーションを使わずに医学的表現を学習するためのソリューションを提供する。
この目的のために, 単純かつ効果的なマルチモーダル自己教師型学習フレームワークを提案する。
提案手法は,音声のみを基準として,超音波画像中の解剖学的関心領域をローカライズすることができる。
論文 参考訳(メタデータ) (2023-10-25T08:55:48Z) - Exploiting Cross-domain And Cross-Lingual Ultrasound Tongue Imaging
Features For Elderly And Dysarthric Speech Recognition [55.25565305101314]
調音機能は音響信号歪みに不変であり、音声認識システムにうまく組み込まれている。
本稿では,A2Aモデルにおける24時間TaLコーパスの並列音声・超音波舌画像(UTI)データを利用したクロスドメインおよびクロスランガルA2Aインバージョン手法を提案する。
生成した調音機能を組み込んだ3つのタスクの実験は、ベースラインのTDNNとコンフォーマーASRシステムより一貫して優れていた。
論文 参考訳(メタデータ) (2022-06-15T07:20:28Z) - Continuous Speech for Improved Learning Pathological Voice Disorders [12.867900671251395]
本研究では,単一母音の代わりに連続マンダリン音声を用いて4つの共通音声障害を分類する手法を提案する。
提案手法では, 音響信号をメル周波数ケプストラム係数に変換し, 双方向長周期メモリネットワーク(BiLSTM)を採用して, 逐次的特徴をモデル化する。
論文 参考訳(メタデータ) (2022-02-22T09:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。