論文の概要: Medical Speech Symptoms Classification via Disentangled Representation
- arxiv url: http://arxiv.org/abs/2403.05000v3
- Date: Tue, 30 Apr 2024 01:47:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 19:08:44.464920
- Title: Medical Speech Symptoms Classification via Disentangled Representation
- Title(参考訳): アンタングル表現による医学的音声症状の分類
- Authors: Jianzong Wang, Pengcheng Li, Xulong Zhang, Ning Cheng, Jing Xiao,
- Abstract要約: 本稿では,DRSC という医療用音声分類モデルを提案する。
本モデルでは,25種類の医学症状を平均95%の精度で検出する。
- 参考スコア(独自算出の注目度): 33.201823072472806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intent is defined for understanding spoken language in existing works. Both textual features and acoustic features involved in medical speech contain intent, which is important for symptomatic diagnosis. In this paper, we propose a medical speech classification model named DRSC that automatically learns to disentangle intent and content representations from textual-acoustic data for classification. The intent representations of the text domain and the Mel-spectrogram domain are extracted via intent encoders, and then the reconstructed text feature and the Mel-spectrogram feature are obtained through two exchanges. After combining the intent from two domains into a joint representation, the integrated intent representation is fed into a decision layer for classification. Experimental results show that our model obtains an average accuracy rate of 95% in detecting 25 different medical symptoms.
- Abstract(参考訳): Intentは既存の作品における音声言語を理解するために定義されている。
医学的音声にかかわるテキストの特徴と音響的特徴には意図が含まれており,症状の診断に重要である。
本稿では,テキスト・音響データから意図と内容の表現を分離して分類するDRSCという医療用音声分類モデルを提案する。
テキスト領域とメル・スペクトログラム領域のインテント表現をインテントエンコーダを介して抽出し、2つの交換により再構成されたテキスト特徴とメル・スペクトログラム特徴を得る。
2つのドメインからの意図を共同表現に結合した後、統合意図表現は分類のための決定層に供給される。
実験の結果,25種類の医学症状の検出において平均95%の精度が得られた。
関連論文リスト
- Identifying and interpreting non-aligned human conceptual
representations using language modeling [0.0]
先天性失明は,a-モダル語と知覚関連言語ドメインの両方において概念的再編成を引き起こすことを示す。
視覚障害者は、より強く社会的・認知的な意味と、行動に関連する動詞を関連づける。
一部の動詞では、盲目と盲目の表現は非常に似ている。
論文 参考訳(メタデータ) (2024-03-10T13:02:27Z) - Agentivit\`a e telicit\`a in GilBERTo: implicazioni cognitive [77.71680953280436]
本研究の目的は,トランスフォーマーに基づくニューラルネットワークモデルが語彙意味論を推論するかどうかを検討することである。
考慮される意味的性質は、テリシティ(定性とも組み合わされる)と作用性である。
論文 参考訳(メタデータ) (2023-07-06T10:52:22Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Clinical Named Entity Recognition using Contextualized Token
Representations [49.036805795072645]
本稿では,各単語の意味的意味をより正確に把握するために,文脈型単語埋め込み手法を提案する。
言語モデル(C-ELMo)とC-Flair(C-Flair)の2つの深い文脈型言語モデル(C-ELMo)を事前訓練する。
明示的な実験により、静的単語埋め込みとドメインジェネリック言語モデルの両方と比較して、我々のモデルは劇的に改善されている。
論文 参考訳(メタデータ) (2021-06-23T18:12:58Z) - Detect and Classify -- Joint Span Detection and Classification for
Health Outcomes [15.496885113949252]
単語レベル情報と文レベル情報の両方を用いて,結果スパン検出と結果型分類を同時に行う手法を提案する。
健康結果検出のためのいくつかのベンチマークデータセットの実験結果から,我々のモデルはデカップリング法より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-04-15T21:47:15Z) - Leveraging Acoustic and Linguistic Embeddings from Pretrained speech and
language Models for Intent Classification [81.80311855996584]
本研究では,前訓練された音声認識システムから抽出した音響特性と,前訓練された言語モデルから学習した言語特性を用いた新しい意図分類フレームワークを提案する。
ATIS と Fluent 音声コーパスの精度は 90.86% と 99.07% である。
論文 参考訳(メタデータ) (2021-02-15T07:20:06Z) - A survey of joint intent detection and slot-filling models in natural
language understanding [0.0]
この記事は、自然言語理解、特に統合意図分類とスロットフィリングにおける過去の研究のまとめである。
本稿では,傾向,アプローチ,課題,データセット,意図分類における評価指標,スロット充填について述べる。
論文 参考訳(メタデータ) (2021-01-20T12:15:11Z) - Unifying Relational Sentence Generation and Retrieval for Medical Image
Report Composition [142.42920413017163]
現在の手法は、個々のケースのデータセットバイアスにより、しばしば最も一般的な文を生成する。
テンプレート検索と文生成を一体化し、共通およびまれな異常に対処する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-09T04:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。