論文の概要: Linguistic-Based Mild Cognitive Impairment Detection Using Informative
Loss
- arxiv url: http://arxiv.org/abs/2402.01690v1
- Date: Tue, 23 Jan 2024 16:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:36:58.794878
- Title: Linguistic-Based Mild Cognitive Impairment Detection Using Informative
Loss
- Title(参考訳): Informative Lossを用いた言語ベース軽度認知障害検出
- Authors: Ali Pourramezan Fard, Mohammad H. Mahoor, Muath Alsuhaibani and Hiroko
H. Dodgec
- Abstract要約: 我々は,I-CONECT研究プロジェクト内で収集された映像インタビューから生成されたテキストを解析するフレームワークを提案する。
我々のフレームワークは、平均面積84.75%のMCIとNCを区別することができる。
- 参考スコア(独自算出の注目度): 2.8893654860442872
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a deep learning method using Natural Language Processing
(NLP) techniques, to distinguish between Mild Cognitive Impairment (MCI) and
Normal Cognitive (NC) conditions in older adults. We propose a framework that
analyzes transcripts generated from video interviews collected within the
I-CONECT study project, a randomized controlled trial aimed at improving
cognitive functions through video chats. Our proposed NLP framework consists of
two Transformer-based modules, namely Sentence Embedding (SE) and Sentence
Cross Attention (SCA). First, the SE module captures contextual relationships
between words within each sentence. Subsequently, the SCA module extracts
temporal features from a sequence of sentences. This feature is then used by a
Multi-Layer Perceptron (MLP) for the classification of subjects into MCI or NC.
To build a robust model, we propose a novel loss function, called InfoLoss,
that considers the reduction in entropy by observing each sequence of sentences
to ultimately enhance the classification accuracy. The results of our
comprehensive model evaluation using the I-CONECT dataset show that our
framework can distinguish between MCI and NC with an average area under the
curve of 84.75%.
- Abstract(参考訳): 本稿では,高齢者におけるMCI(Mild Cognitive Impairment)とNC(Normal Cognitive Impairment)を区別するために,自然言語処理(NLP)技術を用いたディープラーニング手法を提案する。
ビデオチャットによる認知機能向上を目的としたランダム化制御試験であるI-CONECT研究プロジェクトにおいて,ビデオインタビューから生成されたテキストを解析するフレームワークを提案する。
提案するNLPフレームワークは,Sentence Embedding(SE)とSentence Cross Attention(SCA)という,Transformerベースの2つのモジュールから構成される。
まず、seモジュールは各文内の単語間の文脈関係をキャプチャする。
その後、SCAモジュールは一連の文から時間的特徴を抽出する。
この機能はMCIまたはNCに分類するためにMLP(Multi-Layer Perceptron)によって使用される。
頑健なモデルを構築するために,各文列を観察することでエントロピーの低減を考慮し,最終的に分類精度を向上させる,infolossと呼ばれる新しい損失関数を提案する。
I-CONECTデータセットを用いた包括的モデル評価の結果,平均面積84.75%でMCIとNCを区別できることがわかった。
関連論文リスト
- FLIP: Towards Fine-grained Alignment between ID-based Models and
Pretrained Language Models for CTR Prediction [51.64257638308695]
本稿では,クリックスルー率(CTR)予測のためのIDベースモデルと事前学習言語モデル(FLIP)間の細粒度特徴レベルのアライメントを提案する。
具体的には、1つのモダリティ(トークンや特徴)のマスキングされたデータは、他のモダリティの助けを借りて回復し、特徴レベルの相互作用とアライメントを確立する必要がある。
論文 参考訳(メタデータ) (2023-10-30T11:25:03Z) - R-Cut: Enhancing Explainability in Vision Transformers with Relationship
Weighted Out and Cut [14.382326829600283]
リレーションウェイトアウト」と「カット」の2つのモジュールを紹介します。
Cut"モジュールは、位置、テクスチャ、色などの要素を考慮して、きめ細かい特徴分解を行う。
我々は,ImageNetデータセット上で定性的かつ定量的な実験を行い,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-07-18T08:03:51Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Discover, Explanation, Improvement: An Automatic Slice Detection
Framework for Natural Language Processing [72.14557106085284]
スライス検出モデル(SDM)は、データポイントの低パフォーマンスなグループを自動的に識別する。
本稿では,NLPタスクの分類のための "Discover, Explain, improve (DEIM)" というベンチマークを提案する。
評価の結果,Edisaは情報的セマンティックな特徴を持つ誤り発生データポイントを正確に選択できることがわかった。
論文 参考訳(メタデータ) (2022-11-08T19:00:00Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - Detecting Textual Adversarial Examples Based on Distributional
Characteristics of Data Representations [11.93653349589025]
逆の例は、正しく分類された入力に小さな非ランダムな摂動を加えることで構成される。
自然言語タスクにおける敵対的攻撃へのアプローチは、文字レベル、単語レベル、フレーズレベルの摂動を用いて、過去5年間にブームとなった。
我々はこのギャップを埋めるために,NLPのための2つの新しいリアクティブ手法を提案する。
適応 LID と MDRE は、IMDB データセットに対する文字レベル、単語レベル、フレーズレベルの攻撃に対して、最先端の結果を得る。
論文 参考訳(メタデータ) (2022-04-29T02:32:02Z) - Making a (Counterfactual) Difference One Rationale at a Time [5.97507595130844]
本研究では,人的支援を伴わない反現実的データ拡張が,セレクタの性能を向上させることができるかどうかを考察する。
以上の結果から,CDAは関心のシグナルをよりよく捉えた合理性を生み出すことが示唆された。
論文 参考訳(メタデータ) (2022-01-13T19:05:02Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - PIN: A Novel Parallel Interactive Network for Spoken Language
Understanding [68.53121591998483]
既存の RNN ベースのアプローチでは、ID と SF のタスクは、それらの間の相関情報を利用するために、しばしば共同でモデル化される。
SNIPSとATISという2つのベンチマークデータセットによる実験は、我々のアプローチの有効性を実証している。
さらに,事前学習した言語モデルBERTが生成した発話の特徴埋め込みを用いて,提案手法はすべての比較手法の中で最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-09-28T15:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。