論文の概要: GAME: Generalized deep learning model towards multimodal data
integration for early screening of adolescent mental disorders
- arxiv url: http://arxiv.org/abs/2309.10077v1
- Date: Mon, 18 Sep 2023 18:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:56:47.278053
- Title: GAME: Generalized deep learning model towards multimodal data
integration for early screening of adolescent mental disorders
- Title(参考訳): ゲーム:思春期精神障害早期スクリーニングのためのマルチモーダルデータ統合に向けた汎用ディープラーニングモデル
- Authors: Zhicheng Du, Chenyao Jiang, Xi Yuan, Shiyao Zhai, Zhengyang Lei,
Shuyue Ma, Yang Liu, Qihui Ye, Chufan Xiao, Qiming Huang, Ming Xu, Dongmei
Yu, Peiwu Qin
- Abstract要約: 青年期の精神障害のタイムリーな識別は、世界的な公衆衛生上の課題である。
そこで我々は,3,783人の中学生を対象に,携帯型ロボットに搭載されたミニゲームとチャット記録を備えたアンドロイドアプリケーションを設計した。
我々は,モデルにクロスモーダルな特徴を統合する新しいアテンション機構を備えたGAMEと呼ばれるモデルを開発した。
- 参考スコア(独自算出の注目度): 5.557577833848621
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The timely identification of mental disorders in adolescents is a global
public health challenge.Single factor is difficult to detect the abnormality
due to its complex and subtle nature. Additionally, the generalized multimodal
Computer-Aided Screening (CAS) systems with interactive robots for adolescent
mental disorders are not available. Here, we design an android application with
mini-games and chat recording deployed in a portable robot to screen 3,783
middle school students and construct the multimodal screening dataset,
including facial images, physiological signs, voice recordings, and textual
transcripts.We develop a model called GAME (Generalized Model with Attention
and Multimodal EmbraceNet) with novel attention mechanism that integrates
cross-modal features into the model. GAME evaluates adolescent mental
conditions with high accuracy (73.34%-92.77%) and F1-Score (71.32%-91.06%).We
find each modality contributes dynamically to the mental disorders screening
and comorbidities among various mental disorders, indicating the feasibility of
explainable model. This study provides a system capable of acquiring multimodal
information and constructs a generalized multimodal integration algorithm with
novel attention mechanisms for the early screening of adolescent mental
disorders.
- Abstract(参考訳): 青年期における精神障害のタイムリーな識別は、公衆衛生上の課題であり、その複雑で微妙な性質による異常を検出することは困難である。
さらに、青年期の精神障害に対する対話型ロボットを用いた汎用マルチモーダルコンピュータ支援スクリーニング(CAS)システムも利用できない。
そこで我々は,3,783人の中学生をスクリーニングし,顔画像,生理学的サイン,音声記録,テキスト書き起こしを含むマルチモーダルスクリーニングデータセットを構築するために,携帯型ロボットに展開するミニゲームとチャット記録を備えたアンドロイドアプリケーションを設計し,GAME(Generalized Model with Attention and Multimodal EmbraceNet)と呼ばれるモデルを開発した。
GAMEは青年期の精神状態を高い精度 (73.34%-92.77%) とF1スコア (71.32%-91.06%) で評価している。
それぞれのモダリティは様々な精神疾患のスクリーニングと共生に動的に寄与し,説明可能なモデルの実現可能性を示している。
本研究は, 青年期精神疾患の早期スクリーニングを目的とした, マルチモーダル情報を取得し, 汎用多モーダル統合アルゴリズムを構築するシステムを提案する。
関連論文リスト
- Multi-Task Adversarial Variational Autoencoder for Estimating Biological Brain Age with Multimodal Neuroimaging [8.610253537046692]
我々は、脳年齢予測を改善するために設計された独自のディープラーニングフレームワークであるMultitask Adversarial Variational Autoencoderを提案する。
このモデルは潜在変数を汎用的およびユニークなコードに分離し、共有およびモダリティ固有の特徴を分離する。
マルチタスク学習と性分類を付加的なタスクとして統合することにより、モデルが性固有の老化パターンをキャプチャする。
論文 参考訳(メタデータ) (2024-11-15T10:50:36Z) - Multimodal Machine Learning in Mental Health: A Survey of Data, Algorithms, and Challenges [14.632649933582648]
メンタルヘルス障害の検出、診断、治療における機械学習(ML)の適用は、注目を集めている。
マルチモーダルMLは、複数のモーダルからの情報を組み合わせることで、大きな可能性を証明している。
その可能性にもかかわらず、メンタルヘルスにおけるマルチモーダルMLはいまだ発展途上であり、実用的な応用が効果的に開発される前に、いくつかの複雑な課題に直面している。
論文 参考訳(メタデータ) (2024-07-23T19:07:56Z) - 3M-Health: Multimodal Multi-Teacher Knowledge Distillation for Mental Health Detection [9.469887408109251]
メンタルヘルス分類のためのマルチモーダル・マルチティーラー知識蒸留モデルを提案する。
多様な特徴を統合するための単純な結合にしばしば依存する従来のアプローチとは異なり、我々のモデルは様々な性質の入力を適切に表現するという課題に対処する。
論文 参考訳(メタデータ) (2024-07-12T06:22:45Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - Incomplete Multimodal Learning for Complex Brain Disorders Prediction [65.95783479249745]
本稿では,変換器と生成対向ネットワークを用いた不完全なマルチモーダルデータ統合手法を提案する。
アルツハイマー病神経画像イニシアチブコホートを用いたマルチモーダルイメージングによる認知変性と疾患予後の予測に本手法を適用した。
論文 参考訳(メタデータ) (2023-05-25T16:29:16Z) - Deep learning reveals the common spectrum underlying multiple brain
disorders in youth and elders from brain functional networks [53.257804915263165]
ヒトの初期および後期の脳障害は、脳機能における病理学的変化を共有する可能性がある。
病理的共通性に関する神経画像データによる重要な証拠はいまだ発見されていない。
多地点機能磁気共鳴画像データを用いたディープラーニングモデルを構築し、健康的な制御から5つの異なる脳障害を分類する。
論文 参考訳(メタデータ) (2023-02-23T09:22:05Z) - Self-supervised multimodal neuroimaging yields predictive
representations for a spectrum of Alzheimer's phenotypes [27.331511924585023]
この研究は、マルチモーダル・ニューロイメージングデータから複数の表現を学習するための、新しいマルチスケール協調フレームワークを提案する。
本稿では,情報誘導バイアスの一般的な分類法を提案する。
自己教師型モデルでは,事前トレーニング中にラベルにアクセスすることなく,障害関連脳領域とマルチモーダルリンクを明らかにする。
論文 参考訳(メタデータ) (2022-09-07T01:37:19Z) - Multimodal foundation models are better simulators of the human brain [65.10501322822881]
1500万の画像テキストペアを事前訓練した,新たに設計されたマルチモーダル基礎モデルを提案する。
視覚的エンコーダも言語的エンコーダもマルチモーダルで訓練され,脳に近いことが判明した。
論文 参考訳(メタデータ) (2022-08-17T12:36:26Z) - MEDUSA: Multi-scale Encoder-Decoder Self-Attention Deep Neural Network
Architecture for Medical Image Analysis [71.2022403915147]
医用画像解析に適したマルチスケールエンコーダデコーダ自己保持機構であるMEDUSAを紹介する。
我々は、COVIDx、RSNA RICORD、RSNA Pneumonia Challengeなどの医療画像分析ベンチマークの最先端性能を得た。
論文 参考訳(メタデータ) (2021-10-12T15:05:15Z) - Muti-view Mouse Social Behaviour Recognition with Deep Graphical Model [124.26611454540813]
マウスの社会的行動分析は神経変性疾患の治療効果を評価する貴重なツールである。
マウスの社会行動の豊かな記述を創出する可能性から、ネズミの観察にマルチビュービデオ記録を使用することは、ますます注目を集めている。
本稿では,ビュー固有のサブ構造とビュー共有サブ構造を協調的に学習する,新しい多視点潜在意識・動的識別モデルを提案する。
論文 参考訳(メタデータ) (2020-11-04T18:09:58Z) - Whole MILC: generalizing learned dynamics across tasks, datasets, and
populations [14.99255412075299]
障害特異的力学の理論は、疾患の早期診断と理解に不可欠である。
本稿では,コンテキストに局所的な相互シーケンス情報を強化する,教師付きトレーニングモデルを提案する。
統合失調症 (i) とアルツハイマー病 (iii) の3つの異なる疾患と4つの異なる研究について本モデルを検証した。
論文 参考訳(メタデータ) (2020-07-29T21:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。