論文の概要: Toward Gaze Target Detection of Young Autistic Children
- arxiv url: http://arxiv.org/abs/2511.11244v1
- Date: Fri, 14 Nov 2025 12:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.596509
- Title: Toward Gaze Target Detection of Young Autistic Children
- Title(参考訳): 若年自閉症児の視線目標検出に向けて
- Authors: Shijian Deng, Erin E. Kosloski, Siva Sai Nagender Vasireddy, Jia Li, Randi Sierra Sherwood, Feroz Mohamed Hatha, Siddhi Patel, Pamela R Rollins, Yapeng Tian,
- Abstract要約: 本稿では,自閉症児の視線目標検出のための実世界のAIアプリケーションを紹介し,活動画像から子どもの視線点を予測する。
本稿では,シーンの社会的文脈を明示的に活用して,自閉症データセットに共通するクラス不均衡を克服する,新たなソーシャル・アウェア・コア・トゥ・ファイン(SACF)視線検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.76702536443123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automatic detection of gaze targets in autistic children through artificial intelligence can be impactful, especially for those who lack access to a sufficient number of professionals to improve their quality of life. This paper introduces a new, real-world AI application for gaze target detection in autistic children, which predicts a child's point of gaze from an activity image. This task is foundational for building automated systems that can measure joint attention-a core challenge in Autism Spectrum Disorder (ASD). To facilitate the study of this challenging application, we collected the first-ever Autism Gaze Target (AGT) dataset. We further propose a novel Socially Aware Coarse-to-Fine (SACF) gaze detection framework that explicitly leverages the social context of a scene to overcome the class imbalance common in autism datasets-a consequence of autistic children's tendency to show reduced gaze to faces. It utilizes a two-pathway architecture with expert models specialized in social and non-social gaze, guided by a context-awareness gate module. The results of our comprehensive experiments demonstrate that our framework achieves new state-of-the-art performance for gaze target detection in this population, significantly outperforming existing methods, especially on the critical minority class of face-directed gaze.
- Abstract(参考訳): 人工知能による自閉症児の視線標的の自動検出は、特に、生活の質を向上させるのに十分な数の専門家にアクセスできない人にとっては、影響が大きい。
本稿では,自閉症児の視線目標検出のための実世界のAIアプリケーションを紹介し,活動画像から子どもの視線点を予測する。
この課題は、自閉症スペクトラム障害(ASD)の中核的課題である共同注意力を測定する自動化システムを構築するための基礎となるものである。
この挑戦的なアプリケーションの研究を容易にするために、私たちは初めてAutism Gaze Target(AGT)データセットを収集しました。
さらに、自閉症データセットに共通するクラス不均衡を克服するために、シーンの社会的文脈を明示的に活用する社会意識的粗視検出フレームワーク(SACF)を提案する。
これは、コンテキスト認識ゲートモジュールによってガイドされる、社会的および非社会的視線に特化した専門家モデルを備えた双方向アーキテクチャを利用する。
包括的実験の結果、この集団における視線目標検出のための我々のフレームワークは、新しい最先端のパフォーマンスを達成し、既存の手法、特に顔向け視線の重要なマイノリティ・クラスを著しく上回っていることが示された。
関連論文リスト
- MR-GDINO: Efficient Open-World Continual Object Detection [58.066277387205325]
本稿では,従来型,新しい,目に見えないカテゴリに一般化するために,検出器を必要とするオープンワールド連続物体検出タスクを提案する。
本稿では,検出能力を評価するためのOW-CODベンチマークを提案する。
そこで我々は,記憶と検索機構を通じて,強力な,効率的でスケーラブルなベースラインであるMR-GDINOを提案する。
論文 参考訳(メタデータ) (2024-12-20T15:22:51Z) - Localizing Moments of Actions in Untrimmed Videos of Infants with Autism Spectrum Disorder [5.2289135066938375]
乳児ビデオにおけるASD関連行動の同定を目的とした自己注意型TALモデルを提案する。
本研究は, 乳児の非トリミングビデオにおいて, エンド・ツー・エンドの時間的行動の局所化を初めて実施した症例である。
顔の70%の精度、顔の79%の精度、笑顔の72%、発声の65%を実現した。
論文 参考訳(メタデータ) (2024-04-08T20:31:27Z) - Hear Me, See Me, Understand Me: Audio-Visual Autism Behavior Recognition [47.550391816383794]
本稿では,音声・視覚自閉症の行動認識の新たな課題について紹介する。
社会的行動認識は、AIによる自閉症スクリーニング研究において、これまで省略されてきた重要な側面である。
データセット、コード、事前トレーニングされたモデルをリリースします。
論文 参考訳(メタデータ) (2024-03-22T22:52:35Z) - Language-Assisted Deep Learning for Autistic Behaviors Recognition [13.200025637384897]
本稿では,視覚に基づく問題行動認識システムにおいて,従来の手法よりも高い精度で性能を向上できることを示す。
問題行動の種類毎に「自由利用」言語記述を取り入れた2分岐マルチモーダルディープラーニングフレームワークを提案する。
実験結果から,言語指導を付加することで,自閉症の行動認識タスクに明らかなパフォーマンス向上がもたらされることが示された。
論文 参考訳(メタデータ) (2022-11-17T02:58:55Z) - Vision-Based Activity Recognition in Children with Autism-Related
Behaviors [15.915410623440874]
臨床医や親が子どもの行動を分析するのに役立つ地域型コンピュータビジョンシステムの効果を実証する。
データは、ビデオ中の対象の子供を検出し、背景雑音の影響を低減することで前処理される。
時間的畳み込みモデルの有効性から,ビデオフレームから動作特徴を抽出できる軽量モデルと従来モデルの両方を提案する。
論文 参考訳(メタデータ) (2022-08-08T15:12:27Z) - End-to-End Human-Gaze-Target Detection with Transformers [57.00864538284686]
本稿では,Human-Gaze-Target(HGT)検出のための効果的かつ効率的な手法を提案する。
提案手法は,Human-Gaze-Target Detection TRansformer (HGTTR) と名付けられ,HGT検出パイプラインを簡素化する。
提案手法の有効性とロバスト性は,GazeFollowing と VideoAttentionTarget の2つの標準ベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-03-20T02:37:06Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - Early Autism Spectrum Disorders Diagnosis Using Eye-Tracking Technology [62.997667081978825]
資金不足、資格のある専門家の欠如、そして修正方法に対する信頼度の低いことが、AMDのリアルタイム診断に影響を及ぼす主要な問題である。
我々のチームは、子どもの視線活動の情報に基づいて、ALDの確率を予測するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-08-21T20:22:55Z) - A Convolutional Neural Network for gaze preference detection: A
potential tool for diagnostics of autism spectrum disorder in children [0.0]
本稿では,1分間の刺激映像から抽出した画像を用いた視線予測のための畳み込みニューラルネットワーク(CNN)アルゴリズムを提案する。
本モデルでは,被検者の視線方向の予測に高い精度とロバスト性を実現した。
論文 参考訳(メタデータ) (2020-07-28T18:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。