論文の概要: MOGAM: A Multimodal Object-oriented Graph Attention Model for Depression Detection
- arxiv url: http://arxiv.org/abs/2403.15485v1
- Date: Thu, 21 Mar 2024 07:45:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-26 22:32:02.874266
- Title: MOGAM: A Multimodal Object-oriented Graph Attention Model for Depression Detection
- Title(参考訳): MOGAM: 抑うつ検出のためのマルチモーダルオブジェクト指向グラフアテンションモデル
- Authors: Junyeop Cha, Seoyun Kim, Dongjae Kim, Eunil Park,
- Abstract要約: ソーシャルメディアにおける抑うつを検知するためのMOGAM(Multimodal Object-Oriented Graph Attention Model)を提案する。
本モデルでは,うつ病の症状を確実に把握するために,臨床診断を行うユーザからのvlogしか含まない。
MOGAMは0.871の精度とF1スコア0.888の精度を達成した。
- 参考スコア(独自算出の注目度): 5.506046101113427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early detection plays a crucial role in the treatment of depression. Therefore, numerous studies have focused on social media platforms, where individuals express their emotions, aiming to achieve early detection of depression. However, the majority of existing approaches often rely on specific features, leading to limited scalability across different types of social media datasets, such as text, images, or videos. To overcome this limitation, we introduce a Multimodal Object-Oriented Graph Attention Model (MOGAM), which can be applied to diverse types of data, offering a more scalable and versatile solution. Furthermore, to ensure that our model can capture authentic symptoms of depression, we only include vlogs from users with a clinical diagnosis. To leverage the diverse features of vlogs, we adopt a multimodal approach and collect additional metadata such as the title, description, and duration of the vlogs. To effectively aggregate these multimodal features, we employed a cross-attention mechanism. MOGAM achieved an accuracy of 0.871 and an F1-score of 0.888. Moreover, to validate the scalability of MOGAM, we evaluated its performance with a benchmark dataset and achieved comparable results with prior studies (0.61 F1-score). In conclusion, we believe that the proposed model, MOGAM, is an effective solution for detecting depression in social media, offering potential benefits in the early detection and treatment of this mental health condition.
- Abstract(参考訳): 早期発見はうつ病の治療において重要な役割を担っている。
そのため、うつ病の早期発見を目指して、個人が感情を表現するソーシャルメディアプラットフォームに多くの研究が焦点を当てている。
しかしながら、既存のアプローチの大部分が特定の機能に依存しており、テキスト、画像、ビデオなど、さまざまなタイプのソーシャルメディアデータセット間のスケーラビリティが制限されている。
この制限を克服するため、我々はMOGAM(Multimodal Object-Oriented Graph Attention Model)を導入しました。
さらに,本モデルがうつ病の真正症状を捉えられるようにするためには,臨床診断を行うユーザからのvlogしか含まない。
Vlogの多様な特徴を活用するために、マルチモーダルアプローチを採用し、vlogのタイトル、記述、持続時間などのメタデータを収集する。
これらのマルチモーダルな特徴を効果的に集約するために,クロスアテンション機構を採用した。
MOGAMは0.871の精度とF1スコア0.888の精度を達成した。
さらに,MOGAMのスケーラビリティを評価するため,ベンチマークデータセットを用いてその性能を評価し,先行研究(0.61F1スコア)と同等の結果を得た。
結論として,提案モデルであるMOGAMは,ソーシャルメディアにおけるうつ病の早期発見と治療に有効であると考えられた。
関連論文リスト
- MLlm-DR: Towards Explainable Depression Recognition with MultiModal Large Language Models [28.873959594226605]
自動うつ病診断は、インタビュービデオからのマルチモーダル情報を分析し、参加者のうつ病スコアを予測することを目的としている。
これまでの研究では、これらのスコアがどのように決定されたかを明確に説明できず、臨床実践における導入を制限することが多かった。
本稿では,マルチモーダル情報入力を理解でき,説明可能なうつ病診断を支援する新しい多モーダル大言語モデル(MLlm-DR)を提案する。
論文 参考訳(メタデータ) (2025-07-08T01:56:39Z) - On the Validity of Head Motion Patterns as Generalisable Depression Biomarkers [5.251042759836316]
本研究は,うつ病重症度推定のための基本頭部運動単位を用いたモデルの有効性と一般性について検討する。
異なる西欧文化からの3つの抑うつデータセットを考察し, キネムパターンの一般化可能性について検討した。
1) 頭部運動パターンは, 抑うつの重症度を推定するための効果的なバイオマーカーであり, 分類と回帰の両タスクにおいて高い競争力を発揮する。
論文 参考訳(メタデータ) (2025-05-29T13:22:30Z) - Generating Medically-Informed Explanations for Depression Detection using LLMs [1.325953054381901]
ソーシャルメディアデータからうつ病を早期に検出することは、タイムリーな介入の貴重な機会となる。
本稿では,LLM-MTD(Large Language Model for Multi-Task Depression Detection)を提案する。
論文 参考訳(メタデータ) (2025-03-18T19:23:22Z) - Human Cognitive Benchmarks Reveal Foundational Visual Gaps in MLLMs [65.93003087656754]
VisFactorは、よく確立された認知心理学評価から20の視覚中心のサブテストをデジタル化するベンチマークである。
GPT、Gemini、Claude、LLaMA、Qwen、SEEDファミリーから20のフロンティアマルチモーダル言語モデル(MLLM)を評価する。
最高のパフォーマンスモデルは100点中25.19点のスコアしか得られず、精神的な回転、空間的関係推論、図形の識別といったタスクに一貫して失敗する。
論文 参考訳(メタデータ) (2025-02-23T04:21:32Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - A BERT-Based Summarization approach for depression detection [1.7363112470483526]
うつ病は世界中で流行する精神疾患であり、対処されないと深刻な反感を引き起こす可能性がある。
機械学習と人工知能は、さまざまなデータソースからのうつ病指標を自律的に検出することができる。
本研究では,入力テキストの長さと複雑さを低減させる前処理手法として,テキスト要約を提案する。
論文 参考訳(メタデータ) (2024-09-13T02:14:34Z) - A Depression Detection Method Based on Multi-Modal Feature Fusion Using Cross-Attention [3.4872769952628926]
世界の人口の約3.8%が落ち込んでいる。
低所得国と中所得国の75%以上が未治療のままである。
本稿では,クロスアテンションを用いたマルチモーダル特徴融合に基づく抑うつ検出手法を提案する。
論文 参考訳(メタデータ) (2024-07-02T13:13:35Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Deep Temporal Modelling of Clinical Depression through Social Media Text [1.513693945164213]
ユーザの時間的ソーシャルメディア投稿に基づいて,ユーザレベルの臨床うつ病を検出するモデルを構築した。
本モデルでは,うつ病症状に対する医用注釈付きツイートの最大のサンプルをもとに訓練した,うつ病検出(DSD)分類器を用いた。
論文 参考訳(メタデータ) (2022-10-28T18:31:52Z) - Multi-modal Depression Estimation based on Sub-attentional Fusion [29.74171323437029]
うつ病の診断に失敗すると、世界中で2億8000万人以上がこの精神疾患に苦しんでいる。
マルチモーダルデータからうつ病を自動的に識別するタスクに取り組む。
異種情報をリンクするためのサブアテンション機構を導入する。
論文 参考訳(メタデータ) (2022-07-13T13:19:32Z) - Domain Invariant Model with Graph Convolutional Network for Mammogram
Classification [49.691629817104925]
グラフ畳み込みネットワークを用いたドメイン不変モデル(DIM-GCN)を提案する。
まず,潜伏変数を病原性その他の疾患関連部位に明示的に分解するベイズネットワークを提案する。
マクロな特徴をよりよく捉えるために、我々は、GCN(Graph Convolutional Network)を介して、観察された臨床特性を再構築の目的として活用する。
論文 参考訳(メタデータ) (2022-04-21T08:23:44Z) - Muti-view Mouse Social Behaviour Recognition with Deep Graphical Model [124.26611454540813]
マウスの社会的行動分析は神経変性疾患の治療効果を評価する貴重なツールである。
マウスの社会行動の豊かな記述を創出する可能性から、ネズミの観察にマルチビュービデオ記録を使用することは、ますます注目を集めている。
本稿では,ビュー固有のサブ構造とビュー共有サブ構造を協調的に学習する,新しい多視点潜在意識・動的識別モデルを提案する。
論文 参考訳(メタデータ) (2020-11-04T18:09:58Z) - Multimodal Depression Severity Prediction from medical bio-markers using
Machine Learning Tools and Technologies [0.0]
うつ病は世界中の精神疾患の主要な原因となっている。
近年,うつ病の診断とステージ予測の自動化に行動的手がかりが用いられている。
ラベル付き行動データセットの欠如と、膨大な量のバリエーションが、タスクを達成する上で大きな課題であることが証明されている。
論文 参考訳(メタデータ) (2020-09-11T20:44:28Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。