論文の概要: MF-GCN: A Multi-Frequency Graph Convolutional Network for Tri-Modal Depression Detection Using Eye-Tracking, Facial, and Acoustic Features
- arxiv url: http://arxiv.org/abs/2511.15675v1
- Date: Wed, 19 Nov 2025 18:18:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.934798
- Title: MF-GCN: A Multi-Frequency Graph Convolutional Network for Tri-Modal Depression Detection Using Eye-Tracking, Facial, and Acoustic Features
- Title(参考訳): MF-GCN: アイトラック, 顔, 音響特徴を用いた三モード抑うつ検出のための多周波グラフ畳み込みネットワーク
- Authors: Sejuti Rahman, Swakshar Deb, MD. Sameer Iqbal Chowdhury, MD. Jubair Ahmed Sourov, Mohammad Shamsuddin,
- Abstract要約: 眼球追跡データは、うつ病群で頻繁に観察される負刺激に対する注意バイアスを定量化する。
音声およびビデオデータは、うつ病の特徴である感情的平坦化と精神運動的遅滞を捉えている。
低周波信号と高周波信号の両方を利用するマルチ周波数グラフ畳み込みネットワーク(MF-GCN)を提案する。
- 参考スコア(独自算出の注目度): 2.957755315403663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Eye tracking data quantifies the attentional bias towards negative stimuli that is frequently observed in depressed groups. Audio and video data capture the affective flattening and psychomotor retardation characteristic of depression. Statistical validation confirmed their significant discriminative power in distinguishing depressed from non depressed groups. We address a critical limitation of existing graph-based models that focus on low-frequency information and propose a Multi-Frequency Graph Convolutional Network (MF-GCN). This framework consists of a novel Multi-Frequency Filter Bank Module (MFFBM), which can leverage both low and high frequency signals. Extensive evaluation against traditional machine learning algorithms and deep learning frameworks demonstrates that MF-GCN consistently outperforms baselines. In binary (depressed and non depressed) classification, the model achieved a sensitivity of 0.96 and F2 score of 0.94. For the 3 class (no depression, mild to moderate depression and severe depression) classification task, the proposed method achieved a sensitivity of 0.79 and specificity of 0.87 and siginificantly suprassed other models. To validate generalizability, the model was also evaluated on the Chinese Multimodal Depression Corpus (CMDC) dataset and achieved a sensitivity of 0.95 and F2 score of 0.96. These results confirm that our trimodal, multi frequency framework effectively captures cross modal interaction for accurate depression detection.
- Abstract(参考訳): 眼球追跡データは、うつ病群で頻繁に観察される負刺激に対する注意バイアスを定量化する。
音声およびビデオデータは、うつ病の特徴である感情的平坦化と精神運動的遅滞を捉えている。
統計的検証により、うつ病群と非うつ病群を区別する重要な識別力が確認された。
低周波情報に焦点をあてた既存のグラフベースモデルの限界に対処し、MF-GCN(Multi-Frequency Graph Convolutional Network)を提案する。
このフレームワークは、低周波信号と高周波信号の両方を利用する新しいマルチ周波数フィルタバンクモジュール(MFFBM)で構成されている。
従来の機械学習アルゴリズムやディープラーニングフレームワークに対する大規模な評価は、MF-GCNがベースラインを一貫して上回っていることを示している。
2値(抑うつ・非抑うつ)の分類では、感度は0.96、F2スコアは0.94である。
3クラス(抑うつなし,軽度,軽度,軽度,軽度)の分類作業において,提案手法は0.79の感度,具体性0.87の感度を達成し,他のモデルに重畳した。
一般化性を評価するため,中国マルチモーダル抑うつコーパス(CMDC)データセットを用いてモデルの評価を行い,感度0.95,F2スコア0.96を得た。
これらの結果から, 高精度な抑うつ検出のためのクロスモーダル相互作用を効果的に捉えることが可能であることが確認された。
関連論文リスト
- Rethinking Purity and Diversity in Multi-Behavior Sequential Recommendation from the Frequency Perspective [48.60281642851056]
レコメンデーションシステムでは、ユーザーはブラウジング、クリック、購入などの複数の行動を示すことが多い。
いくつかの行動データは、ユーザー興味のモデリングにも避けられないノイズをもたらします。
これらの研究は、低周波情報は価値があり信頼性が高い傾向にあり、高周波情報はしばしばノイズと関連していることを示している。
論文 参考訳(メタデータ) (2025-08-28T04:55:02Z) - On the Validity of Head Motion Patterns as Generalisable Depression Biomarkers [5.251042759836316]
本研究は,うつ病重症度推定のための基本頭部運動単位を用いたモデルの有効性と一般性について検討する。
異なる西欧文化からの3つの抑うつデータセットを考察し, キネムパターンの一般化可能性について検討した。
1) 頭部運動パターンは, 抑うつの重症度を推定するための効果的なバイオマーカーであり, 分類と回帰の両タスクにおいて高い競争力を発揮する。
論文 参考訳(メタデータ) (2025-05-29T13:22:30Z) - How Learnable Grids Recover Fine Detail in Low Dimensions: A Neural Tangent Kernel Analysis of Multigrid Parametric Encodings [106.3726679697804]
フーリエ特徴符号化(FFE)とマルチグリッドパラメトリック符号化(MPE)の2つの手法を比較した。
MPEは低次元マッピングの標準と見なされるが、MPEはそれらを上回り、高解像度で詳細な表現を学習することが多い。
我々は,MPEが学習可能な埋め込みではなく,グリッド構造を通じてネットワークの性能を向上させることを証明した。
論文 参考訳(メタデータ) (2025-04-18T02:18:08Z) - STANet: A Novel Spatio-Temporal Aggregation Network for Depression Classification with Small and Unbalanced FMRI Data [12.344849949026989]
時間的特徴と空間的特徴の両方を捉えるために,CNNとRNNを統合してうつ病を診断するための時空間アグリゲーションネットワーク(STANet)を提案する。
実験の結果、STANetは82.38%の精度と90.72%のAUCでうつ病診断性能に優れていた。
論文 参考訳(メタデータ) (2024-07-31T04:06:47Z) - How Does Pruning Impact Long-Tailed Multi-Label Medical Image
Classifiers? [49.35105290167996]
プルーニングは、ディープニューラルネットワークを圧縮し、全体的なパフォーマンスに大きな影響を及ぼすことなく、メモリ使用量と推論時間を短縮する強力なテクニックとして登場した。
この研究は、プルーニングがモデル行動に与える影響を理解するための第一歩である。
論文 参考訳(メタデータ) (2023-08-17T20:40:30Z) - Multi-modal Depression Estimation based on Sub-attentional Fusion [29.74171323437029]
うつ病の診断に失敗すると、世界中で2億8000万人以上がこの精神疾患に苦しんでいる。
マルチモーダルデータからうつ病を自動的に識別するタスクに取り組む。
異種情報をリンクするためのサブアテンション機構を導入する。
論文 参考訳(メタデータ) (2022-07-13T13:19:32Z) - Prediction of Depression Severity Based on the Prosodic and Semantic
Features with Bidirectional LSTM and Time Distributed CNN [14.994852548758825]
抑うつ予測のための注意に基づくマルチモーダリティ音声とテキスト表現を提案する。
本モデルは,OzデータセットのDistress Analysis Interview Corpus-Wizardを用いて,参加者のうつ病重症度を推定するために訓練された。
実験では、過去の研究よりも統計的に有意な改善が見られた。
論文 参考訳(メタデータ) (2022-02-25T01:42:29Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Generalizing Face Forgery Detection with High-frequency Features [63.33397573649408]
現在のCNNベースの検出器は、メソッド固有の色テクスチャに過度に適合するため、一般化に失敗する傾向にある。
フェースフォージェリ検出に高周波雑音を用いることを提案する。
1つは、複数のスケールで高周波ノイズを抽出するマルチスケールの高周波特徴抽出モジュールである。
2つ目は、低レベルRGB特徴抽出器を導く残差誘導空間注意モジュールで、新しい視点からフォージェリートレースにもっと集中する。
論文 参考訳(メタデータ) (2021-03-23T08:19:21Z) - Frequency-aware Discriminative Feature Learning Supervised by
Single-Center Loss for Face Forgery Detection [89.43987367139724]
顔の偽造検出は、コンピュータビジョンへの関心をますます高めている。
近年の業績は良好なものとなっているが、いまだに無視できない問題がある。
本稿では,新しい周波数認識型特徴学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-16T14:17:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。