論文の概要: Exploring Gaze Pattern in Autistic Children: Clustering, Visualization, and Prediction
- arxiv url: http://arxiv.org/abs/2409.11744v1
- Date: Wed, 18 Sep 2024 06:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:00:08.036265
- Title: Exploring Gaze Pattern in Autistic Children: Clustering, Visualization, and Prediction
- Title(参考訳): 自閉症児における視線パターンの探索 : クラスタリング,可視化,予測
- Authors: Weiyan Shi, Haihong Zhang, Jin Yang, Ruiqing Ding, YongWei Zhu, Kenny Tsu Wei Choo,
- Abstract要約: そこで本稿では, ASD 児の視線行動を自動的に精度良く解析する手法を提案する。
まず、7つのクラスタリングアルゴリズムを適用して、視線ポイントを自動的にグループ化し、一般的に発達しているASD被験者と比較する。
最後に,これらの特徴を事前知識として用いて,視線行動に基づいて複数の予測機械学習モデルをトレーニングし,ASDの予測と診断を行う。
- 参考スコア(独自算出の注目度): 9.251838958621684
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autism Spectrum Disorder (ASD) significantly affects the social and communication abilities of children, and eye-tracking is commonly used as a diagnostic tool by identifying associated atypical gaze patterns. Traditional methods demand manual identification of Areas of Interest in gaze patterns, lowering the performance of gaze behavior analysis in ASD subjects. To tackle this limitation, we propose a novel method to automatically analyze gaze behaviors in ASD children with superior accuracy. To be specific, we first apply and optimize seven clustering algorithms to automatically group gaze points to compare ASD subjects with typically developing peers. Subsequently, we extract 63 significant features to fully describe the patterns. These features can describe correlations between ASD diagnosis and gaze patterns. Lastly, using these features as prior knowledge, we train multiple predictive machine learning models to predict and diagnose ASD based on their gaze behaviors. To evaluate our method, we apply our method to three ASD datasets. The experimental and visualization results demonstrate the improvements of clustering algorithms in the analysis of unique gaze patterns in ASD children. Additionally, these predictive machine learning models achieved state-of-the-art prediction performance ($81\%$ AUC) in the field of automatically constructed gaze point features for ASD diagnosis. Our code is available at \url{https://github.com/username/projectname}.
- Abstract(参考訳): 自閉症スペクトラム障害(ASD)は、子どもの社会的・コミュニケーション能力に大きく影響を与え、眼球追跡は、関連する非典型的視線パターンを特定することで診断ツールとして一般的に用いられる。
従来の手法では、視線パターンにおける関心領域のマニュアル識別が要求され、視線行動解析の性能が低下する。
そこで本研究では,ALD児の視線行動を自動的に精度良く解析する手法を提案する。
具体的には、まず7つのクラスタリングアルゴリズムを適用して、視線点を自動的にグループ化し、典型的に発達しているASD被験者と比較する。
その後、パターンを完全に記述するために63の重要な特徴を抽出する。
これらの特徴は、ASD診断と視線パターンの相関を記述できる。
最後に,これらの特徴を事前知識として用いて,視線行動に基づいて複数の予測機械学習モデルをトレーニングし,ASDの予測と診断を行う。
提案手法を評価するために,本手法を3つのASDデータセットに適用する。
ASD児における独特の視線パターンの分析におけるクラスタリングアルゴリズムの改善を実験的および可視化的に示す。
さらに、これらの予測機械学習モデルは、ASD診断のために自動構築された視線点特徴の分野において、最先端の予測性能(81\%$AUC)を達成した。
私たちのコードは \url{https://github.com/username/projectname} で利用可能です。
関連論文リスト
- Hugging Rain Man: A Novel Facial Action Units Dataset for Analyzing Atypical Facial Expressions in Children with Autism Spectrum Disorder [2.3001245059699014]
我々は,ASDと典型的発達(TD)の双方に対して,FACSの専門家が手動でアノテートした顔アクションユニット(AU)を含む,新しいデータセットHugging Rain Manを紹介する。
データセットには、ポーズと自発的な表情の豊富なコレクションが含まれており、合計で約130,000フレーム、22のAU、10のAction Descriptors(AD)、非定型評価が含まれている。
論文 参考訳(メタデータ) (2024-11-21T02:51:52Z) - Ensemble Modeling of Multiple Physical Indicators to Dynamically Phenotype Autism Spectrum Disorder [3.6630139570443996]
自閉症スペクトラム障害(ASD)に関連する表現型マーカーを検出するためのコンピュータビジョンモデルをトレーニングするためのデータセットを提供する。
視線,頭位,顔のランドマークを入力として,LSTMを用いた個別モデルを訓練し,テストAUCは86%,67%,78%であった。
論文 参考訳(メタデータ) (2024-08-23T17:55:58Z) - Involution Fused ConvNet for Classifying Eye-Tracking Patterns of
Children with Autism Spectrum Disorder [1.225920962851304]
自閉症スペクトラム障害(ASD)は、診断が難しい複雑な神経疾患である。多くの研究では、ASDと診断された子供が注意範囲を維持し、焦点を絞った視力の低下に苦しむことが示されている。
視線追跡技術は、視線異常が自閉症の診断的特徴として認識されて以来、ASDの文脈で特に注目を集めてきた。
論文 参考訳(メタデータ) (2024-01-07T20:08:17Z) - Sequential Attention Source Identification Based on Feature
Representation [88.05527934953311]
本稿では,テンポラルシーケンスに基づくグラフ注意源同定(TGASI)と呼ばれるシーケンス・ツー・シーケンス・ベースのローカライズ・フレームワークを提案する。
なお、このインダクティブラーニングのアイデアは、TGASIが他の事前の知識を知らずに新しいシナリオのソースを検出できることを保証する。
論文 参考訳(メタデータ) (2023-06-28T03:00:28Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Vision-Based Activity Recognition in Children with Autism-Related
Behaviors [15.915410623440874]
臨床医や親が子どもの行動を分析するのに役立つ地域型コンピュータビジョンシステムの効果を実証する。
データは、ビデオ中の対象の子供を検出し、背景雑音の影響を低減することで前処理される。
時間的畳み込みモデルの有効性から,ビデオフレームから動作特徴を抽出できる軽量モデルと従来モデルの両方を提案する。
論文 参考訳(メタデータ) (2022-08-08T15:12:27Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Cognition-aware Cognate Detection [46.69412510723641]
本稿では,ヒトの視線行動から抽出した認知的特徴を用いた特徴集合の強化手法を提案する。
視線行動データを収集し,コグネート検出のタスクにおいて,認知的特徴の抽出が有用であることを示す。
収集した視線行動データを用いて、より大きなサンプルに対する認知的特徴を予測し、予測された認知的特徴がタスク性能を著しく改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T12:48:04Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。