論文の概要: Text-based classification of interviews for mental health -- juxtaposing
the state of the art
- arxiv url: http://arxiv.org/abs/2008.01543v1
- Date: Wed, 29 Jul 2020 16:19:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 19:36:21.592320
- Title: Text-based classification of interviews for mental health -- juxtaposing
the state of the art
- Title(参考訳): テキストによるメンタルヘルスのための面接の分類-アートの現状を振り返る
- Authors: Joppe Valentijn Wouts
- Abstract要約: 現在、精神疾患の分類のための技術の現状は、音声に基づく分類に基づいている。
本論文は,この課題に対して,アートテキスト分類ネットワークの状態を設計し,評価することを目的とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, the state of the art for classification of psychiatric illness is
based on audio-based classification. This thesis aims to design and evaluate a
state of the art text classification network on this challenge. The hypothesis
is that a well designed text-based approach poses a strong competition against
the state-of-the-art audio based approaches. Dutch natural language models are
being limited by the scarcity of pre-trained monolingual NLP models, as a
result Dutch natural language models have a low capture of long range semantic
dependencies over sentences. For this issue, this thesis presents belabBERT, a
new Dutch language model extending the RoBERTa[15] architecture. belabBERT is
trained on a large Dutch corpus (+32GB) of web crawled texts. After this thesis
evaluates the strength of text-based classification, a brief exploration is
done, extending the framework to a hybrid text- and audio-based classification.
The goal of this hybrid framework is to show the principle of hybridisation
with a very basic audio-classification network. The overall goal is to create
the foundations for a hybrid psychiatric illness classification, by proving
that the new text-based classification is already a strong stand-alone
solution.
- Abstract(参考訳): 現在、精神疾患の分類のための技術の現状は、音声に基づく分類に基づいている。
本論文は,この課題に対するアートテキスト分類ネットワークの設計と評価を目的としている。
この仮説は、よく設計されたテキストベースのアプローチは、最先端のオーディオベースのアプローチと強く競合する。
オランダの自然言語モデルは、事前訓練された単言語NLPモデルの不足によって制限されている。
本稿では,RoBERTa[15]アーキテクチャを拡張した新しいオランダ語モデルであるbelabBERTを紹介する。
belabBERTは、大規模なオランダ語コーパス(+32GB)のWebクロードテキストで訓練されている。
この論文の後、テキストベースの分類の強さを評価し、簡単な探索を行い、フレームワークをハイブリッドテキストとオーディオベースの分類に拡張する。
このハイブリッドフレームワークの目標は、非常に基本的なオーディオ分類ネットワークとのハイブリダイゼーションの原則を示すことである。
全体的な目標は、新しいテキストベースの分類が既に強力なスタンドアロンソリューションであることを証明することによって、ハイブリッド精神医学の病気分類の基礎を作ることである。
関連論文リスト
- Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - A Multi-Grained Self-Interpretable Symbolic-Neural Model For
Single/Multi-Labeled Text Classification [29.075766631810595]
本稿では,テキストのクラスラベルを選挙区木から明示的に予測するシンボリック・ニューラルモデルを提案する。
構造化言語モデルが自己教師型で選挙区木を予測することを学ぶと、訓練データとして、原文と文レベルのラベルしか必要としない。
実験により,下流タスクにおける予測精度が向上できることが実証された。
論文 参考訳(メタデータ) (2023-03-06T03:25:43Z) - Text classification dataset and analysis for Uzbek language [0.0]
まず、ウズベク語テキスト分類のための新しいデータセットを10の異なるニュースや報道サイトから収集した。
また、従来のbag-of-wordsモデルからディープラーニングアーキテクチャまで、さまざまなモデルの包括的評価を行う。
実験により、リカレントニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)に基づくモデルがルールベースモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-02-28T11:21:24Z) - NaturalSpeech: End-to-End Text to Speech Synthesis with Human-Level
Quality [123.97136358092585]
我々は、ベンチマークデータセット上で人間レベルの品質を実現するNaturalSpeechと呼ばれるTSシステムを開発した。
具体的には、波形生成のための変分オートエンコーダ(VAE)を利用する。
LJSpeechデータセットを用いた実験により,提案したNaturalSpeechは文レベルでの人間の記録に対して-0.01CMOSを達成した。
論文 参考訳(メタデータ) (2022-05-09T16:57:35Z) - belabBERT: a Dutch RoBERTa-based language model applied to psychiatric
classification [0.0]
本稿では,RoBERTaアーキテクチャを拡張した新しいオランダ語モデルであるbelabBERTを提案する。
belabBERTは、大規模なオランダ語コーパス(+32GB)のWebクロードテキストでトレーニングされている。
belabBERT を用いてテキスト分類の強度を評価し,既存の RobBERT モデルと比較した。
論文 参考訳(メタデータ) (2021-06-02T11:50:49Z) - Long Text Generation by Modeling Sentence-Level and Discourse-Level
Coherence [59.51720326054546]
本稿では,デコード処理における文レベルと談話レベルにおけるプレフィックス文を表現可能な長文生成モデルを提案する。
我々のモデルは最先端のベースラインよりも一貫性のあるテキストを生成することができる。
論文 参考訳(メタデータ) (2021-05-19T07:29:08Z) - ShufText: A Simple Black Box Approach to Evaluate the Fragility of Text
Classification Models [0.0]
CNN、LSTM、Transformersに基づくディープラーニングアプローチは、テキスト分類における事実上のアプローチである。
これらのシステムは、分類に有用なテキストに現れる重要な単語に過度に依存していることを示す。
論文 参考訳(メタデータ) (2021-01-30T15:18:35Z) - TweetEval: Unified Benchmark and Comparative Evaluation for Tweet
Classification [22.265865542786084]
異種Twitter固有の7つの分類タスクからなる新しい評価フレームワーク(TweetEval)を提案する。
最初の実験では、既存の訓練済みの汎用言語モデルから始めることの有効性を示した。
論文 参考訳(メタデータ) (2020-10-23T14:11:04Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。