論文の概要: Detecting Autism Spectrum Disorder with Deep Eye Movement Features
- arxiv url: http://arxiv.org/abs/2601.05812v1
- Date: Fri, 09 Jan 2026 14:35:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.984624
- Title: Detecting Autism Spectrum Disorder with Deep Eye Movement Features
- Title(参考訳): 深部眼球運動特徴を用いた自閉症スペクトラム障害の検出
- Authors: Zhanpei Huang, Taochen chen, Fangqing Gu, Yiqun Zhang,
- Abstract要約: 自閉症スペクトラム障害(Autism Spectrum disorder、ASD)は、社会的コミュニケーションの障害と行動パターンを特徴とする神経発達障害である。
眼球運動データは、ASD検出のための非侵襲的診断ツールを提供する。
微妙で複雑な眼球運動パターンを効果的に捉えるために、離散的短期連続モデリングフレームワーク(DSTS)が設計されている。
- 参考スコア(独自算出の注目度): 9.225838905985958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autism Spectrum Disorder (ASD) is a neurodevelopmental disorder characterized by deficits in social communication and behavioral patterns. Eye movement data offers a non-invasive diagnostic tool for ASD detection, as it is inherently discrete and exhibits short-term temporal dependencies, reflecting localized gaze focus between fixation points. These characteristics enable the data to provide deeper insights into subtle behavioral markers, distinguishing ASD-related patterns from typical development. Eye movement signals mainly contain short-term and localized dependencies. However, despite the widespread application of stacked attention layers in Transformer-based models for capturing long-range dependencies, our experimental results indicate that this approach yields only limited benefits when applied to eye movement data. This may be because discrete fixation points and short-term dependencies in gaze focus reduce the utility of global attention mechanisms, making them less efficient than architectures focusing on local temporal patterns. To efficiently capture subtle and complex eye movement patterns, distinguishing ASD from typically developing (TD) individuals, a discrete short-term sequential (DSTS) modeling framework is designed with Class-aware Representation and Imbalance-aware Mechanisms. Through extensive experiments on several eye movement datasets, DSTS outperforms both traditional machine learning techniques and more sophisticated deep learning models.
- Abstract(参考訳): 自閉症スペクトラム障害(Autism Spectrum disorder、ASD)は、社会的コミュニケーションの障害と行動パターンを特徴とする神経発達障害である。
眼球運動データは、ASD検出のための非侵襲的な診断ツールを提供する。
これらの特徴により、データは微妙な行動マーカーに関する深い洞察を与え、SD関連パターンを典型的な開発と区別することができる。
眼球運動信号は主に短期的および局所的な依存を含む。
しかし,Transformerをベースとしたモデルに注目層を積み重ねて長期依存を捕捉する手法が広く採用されているにもかかわらず,本手法は眼球運動データに適用した場合,限られた利点しか得られないことを示す実験結果が得られた。
これは、離散的な固定点と焦点の短期的依存が、グローバルな注意機構の有用性を低下させ、局所的な時間的パターンに焦点を当てたアーキテクチャよりも効率を低下させるためかもしれない。
ASDと一般的に発達している(TD)個人を区別して、微妙で複雑な眼球運動パターンを効率的に捉えるために、クラス認識表現と不均衡認識機構を用いて離散的短期連続モデリングフレームワークを設計する。
いくつかの眼球運動データセットに関する広範な実験を通じて、DSTSは従来の機械学習技術とより洗練されたディープラーニングモデルの両方より優れている。
関連論文リスト
- Unleashing Temporal Capacity of Spiking Neural Networks through Spatiotemporal Separation [67.69345363409835]
スパイキングニューラルネットワーク(SNN)は、時間的処理に自然に適していると考えられており、膜電位の伝播は、コア時間的モデリングメカニズムとして広く見なされている。
我々は, 膜伝播を段階的に段階的に除去する非ステートフル(NS)モデルの設計を行った。
論文 参考訳(メタデータ) (2025-12-05T07:05:53Z) - Gaze-Guided Learning: Avoiding Shortcut Bias in Visual Classification [3.1208151315473622]
本稿では,人間の視線時系列データセットであるGaze-CIFAR-10と2列視線エンコーダを紹介する。
並行して、視覚変換器(ViT)を用いて画像内容のシーケンシャルな表現を学習する。
画像特徴表現における不正確な局所化を効果的に補正する。
論文 参考訳(メタデータ) (2025-04-08T00:40:46Z) - Efficient 4D fMRI ASD Classification using Spatial-Temporal-Omics-based Learning Framework [7.944298319589845]
Resting-state fMRIは、脳の接続パターンをキャプチャする非侵襲的なツールで、早期のASD診断と分化を助ける。
平均時系列または全4Dデータに依存する従来の手法は、空間情報の欠如によって制限される。
ASD分類のためのfMRIから脳の時間的特徴を効率的に抽出するための,新しい,シンプルで効率的な時空間オミクス学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-26T18:31:07Z) - MVICAD2: Multi-View Independent Component Analysis with Delays and Dilations [61.59658203704757]
本稿では,時間的遅延と拡張の両面において,被験者間でソースを異にするMVICAD(Multi-View Independent Component Analysis with Delays and Dilations)を提案する。
本稿では, 正則化と最適化手法を用いて, 性能向上を図るため, 正則化と最適化手法を用いて, その可能性の近似を導出する。
論文 参考訳(メタデータ) (2025-01-13T15:47:02Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - Involution Fused ConvNet for Classifying Eye-Tracking Patterns of
Children with Autism Spectrum Disorder [1.225920962851304]
自閉症スペクトラム障害(ASD)は、診断が難しい複雑な神経疾患である。多くの研究では、ASDと診断された子供が注意範囲を維持し、焦点を絞った視力の低下に苦しむことが示されている。
視線追跡技術は、視線異常が自閉症の診断的特徴として認識されて以来、ASDの文脈で特に注目を集めてきた。
論文 参考訳(メタデータ) (2024-01-07T20:08:17Z) - Locally temporal-spatial pattern learning with graph attention mechanism
for EEG-based emotion recognition [4.331986787747648]
感情認識技術により、コンピュータは人間の感情状態を個別のカテゴリーに分類することができる。
感情は短時間でも安定した状態を維持する代わりに変動することがある。
また,3次元トポロジー構造のため,脳波空間分布のフル活用も困難である。
論文 参考訳(メタデータ) (2022-08-19T12:15:10Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。