論文の概要: MADUV: The 1st INTERSPEECH Mice Autism Detection via Ultrasound Vocalization Challenge
- arxiv url: http://arxiv.org/abs/2501.04292v2
- Date: Wed, 29 Jan 2025 05:35:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:52:00.861119
- Title: MADUV: The 1st INTERSPEECH Mice Autism Detection via Ultrasound Vocalization Challenge
- Title(参考訳): MADUV:1st InterSPEECH Mice Autism Detection by Ultrasound Vocalization Challenge (英語)
- Authors: Zijiang Yang, Meishu Song, Xin Jing, Haojie Zhang, Kun Qian, Bin Hu, Kota Tamada, Toru Takumi, Björn W. Schuller, Yoshiharu Yamamoto,
- Abstract要約: 超音波による自閉症検出(MADUV)チャレンジでは、マウスの発声による自閉症スペクトラム障害(ASD)の検出に焦点を当てた最初のInterSPEECHチャレンジが導入されている。
参加者は、サンプリング率の高い記録に基づいて、マウスをワイルドタイプまたはASDモデルとして自動的に分類するモデルを開発することを義務付けられている。
その結果, 可聴域の特徴を最大限に発揮し, 自動ASD検出の実現可能性を示した。
- 参考スコア(独自算出の注目度): 39.014730677559974
- License:
- Abstract: The Mice Autism Detection via Ultrasound Vocalization (MADUV) Challenge introduces the first INTERSPEECH challenge focused on detecting autism spectrum disorder (ASD) in mice through their vocalizations. Participants are tasked with developing models to automatically classify mice as either wild-type or ASD models based on recordings with a high sampling rate. Our baseline system employs a simple CNN-based classification using three different spectrogram features. Results demonstrate the feasibility of automated ASD detection, with the considered audible-range features achieving the best performance (UAR of 0.600 for segment-level and 0.625 for subject-level classification). This challenge bridges speech technology and biomedical research, offering opportunities to advance our understanding of ASD models through machine learning approaches. The findings suggest promising directions for vocalization analysis and highlight the potential value of audible and ultrasound vocalizations in ASD detection.
- Abstract(参考訳): 超音波による自閉症検出(MADUV)チャレンジでは、マウスの発声による自閉症スペクトラム障害(ASD)の検出に焦点を当てた最初のInterSPEECHチャレンジが導入されている。
参加者は、サンプリング率の高い記録に基づいて、マウスをワイルドタイプまたはASDモデルとして自動的に分類するモデルを開発することを義務付けられている。
ベースラインシステムでは,3つの異なるスペクトログラム特徴を用いた単純なCNN分類を用いる。
以上の結果から, ASD自動検出の実現可能性を示すとともに, 最高の音域特性(セグメントレベルのUAR0.600, 対象レベルの0.625)が得られた。
この課題は、音声認識技術とバイオメディカル研究を橋渡しし、機械学習アプローチを通じてASDモデルの理解を深める機会を提供する。
以上の結果から,ASD検出における有意な音声分析の方向性が示唆され,有意な有意な有意な有意な有意な有意な有意な有意性が示唆された。
関連論文リスト
- Modality-Order Matters! A Novel Hierarchical Feature Fusion Method for CoSAm: A Code-Switched Autism Corpus [3.06952918690254]
本研究は,小児における早期ASD検出の促進を目的とした,新しい階層的特徴融合法を提案する。
この手法は、コードスイッチされた音声コーパスであるCoSAmを、ASDと一致した制御グループと診断された子供から収集する。
このデータセットは、ASDと診断された30人の子供から61人の音声記録と、神経型児から31人の音声記録を含んでおり、3歳から13歳の間である。
論文 参考訳(メタデータ) (2024-07-19T14:06:01Z) - MLCA-AVSR: Multi-Layer Cross Attention Fusion based Audio-Visual Speech Recognition [62.89464258519723]
異なるレベルのオーディオ/視覚エンコーダに融合することで、各モードの表現を促進する多層クロスアテンション融合に基づくAVSR手法を提案する。
提案手法は第1位システムを超え,新たなSOTA cpCERの29.13%をこのデータセット上に構築する。
論文 参考訳(メタデータ) (2024-01-07T08:59:32Z) - Leveraging Pretrained Representations with Task-related Keywords for
Alzheimer's Disease Detection [69.53626024091076]
アルツハイマー病(AD)は高齢者に特に顕著である。
事前学習モデルの最近の進歩は、AD検出モデリングを低レベル特徴から高レベル表現にシフトさせる動機付けとなっている。
本稿では,高レベルの音響・言語的特徴から,より優れたAD関連手がかりを抽出する,いくつかの効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T16:03:28Z) - Exploiting Cross-domain And Cross-Lingual Ultrasound Tongue Imaging
Features For Elderly And Dysarthric Speech Recognition [55.25565305101314]
調音機能は音響信号歪みに不変であり、音声認識システムにうまく組み込まれている。
本稿では,A2Aモデルにおける24時間TaLコーパスの並列音声・超音波舌画像(UTI)データを利用したクロスドメインおよびクロスランガルA2Aインバージョン手法を提案する。
生成した調音機能を組み込んだ3つのタスクの実験は、ベースラインのTDNNとコンフォーマーASRシステムより一貫して優れていた。
論文 参考訳(メタデータ) (2022-06-15T07:20:28Z) - L3-Net Deep Audio Embeddings to Improve COVID-19 Detection from
Smartphone Data [5.505634045241288]
人工呼吸記録から有意な特徴を自動的に抽出する深層埋め込みモデルL3-Netの有効性について検討した。
結果は、L3-Netと手作りの機能の組み合わせが、AUCの他の作品のパフォーマンスを28.57%上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-16T13:50:22Z) - Audio-visual multi-channel speech separation, dereverberation and
recognition [70.34433820322323]
本稿では,音声-視覚的多チャンネル音声分離,デバーベレーション,認識手法を提案する。
音声を用いた場合の視覚的モダリティの利点は、2つのニューラルデバーベレーションアプローチでのみ示される。
LRS2データセットを用いて行った実験から,提案手法がベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-04-05T04:16:03Z) - Objective hearing threshold identification from auditory brainstem
response measurements using supervised and self-supervised approaches [1.0627340704073347]
平均ABR生データから聴力閾値の自動同定を行う2つの手法を開発し比較する。
両モデルが正常に動作し、人間の閾値検出より優れ、高速で信頼性が高く、偏りのない聴力閾値検出と品質制御に適していることを示す。
論文 参考訳(メタデータ) (2021-12-16T15:24:31Z) - Influence of ASR and Language Model on Alzheimer's Disease Detection [2.4698886064068555]
画像から参加者の音声記述を転写するために,SotA ASRシステムを用いて分析する。
本研究では,ASRから仮説を復号化するための言語モデルが欠如していることから,単語の非標準列を補正する言語モデルの影響について検討する。
提案システムは、韻律と声質に基づく音響と、最も一般的な単語の最初の出現に基づく語彙的特徴を組み合わせる。
論文 参考訳(メタデータ) (2021-09-20T10:41:39Z) - Discriminative Singular Spectrum Classifier with Applications on
Bioacoustic Signal Recognition [67.4171845020675]
分析や分類に有用な特徴を効率的に抽出する識別機構を備えた生体音響信号分類器を提案する。
タスク指向の現在のバイオ音響認識法とは異なり、提案モデルは入力信号をベクトル部分空間に変換することに依存する。
提案法の有効性は,アヌラン,ミツバチ,蚊の3種の生物音響データを用いて検証した。
論文 参考訳(メタデータ) (2021-03-18T11:01:21Z) - Anomalous Sound Detection with Machine Learning: A Systematic Review [0.0]
本稿では,機械学習(ML)技術を用いたアナモルス音検出に関する研究に関するシステムレビュー(SR)について述べる。
技術の現状は、データセットの収集、音声の特徴抽出方法、mlモデル、およびasdに使用される評価方法によって解決された。
論文 参考訳(メタデータ) (2021-02-15T19:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。