論文の概要: Inclusive AI for Group Interactions: Predicting Gaze-Direction Behaviors in People with Intellectual and Developmental Disabilities
- arxiv url: http://arxiv.org/abs/2603.14460v1
- Date: Sun, 15 Mar 2026 16:10:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.819915
- Title: Inclusive AI for Group Interactions: Predicting Gaze-Direction Behaviors in People with Intellectual and Developmental Disabilities
- Title(参考訳): グループインタラクションのための包括的AI:知的・発達障害者の視線方向行動予測
- Authors: Giulia Huang, Maristella Matera, Micol Spitale,
- Abstract要約: この研究は、アイコンタクト検出の課題に対処することで、包括的AIへの一歩を踏み出す。
まず、新しいデータセット、MIDD(Multi-party Interaction with Intellectual and Developmental Disabilities)を導入し、非定型的な視線とエンゲージメントパターンをキャプチャする。
第2に,クラス不均衡,発話活動,視線分布,相互作用ダイナミクスの相違に着目し,ニューロタイプデータセットとの比較分析の結果を示す。
- 参考スコア(独自算出の注目度): 2.840323898514074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial agents that support human group interactions hold great promise, especially in sensitive contexts such as well-being promotion and therapeutic interventions. However, current systems struggle to mediate group interactions involving people who are not neurotypical. This limitation arises because most AI detection models (e.g., for turn-taking) are trained on data from neurotypical populations. This work takes a step toward inclusive AI by addressing the challenge of eye contact detection, a core component of non-verbal communication, with and for people with Intellectual and Developmental Disabilities. First, we introduce a new dataset, Multi-party Interaction with Intellectual and Developmental Disabilities (MIDD), capturing atypical gaze and engagement patterns. Second, we present the results of a comparative analysis with neurotypical datasets, highlighting differences in class imbalance, speaking activity, gaze distribution, and interaction dynamics. Then, we evaluate classifiers ranging from SVMs to FSFNet, showing that fine-tuning on MIDD improves performance, though notable limitations remain. Finally, we present the insights gathered through a focus group with six therapists to interpret our quantitative findings and understand the practical implications of atypical gaze and engagement patterns. Based on these results, we discuss data-driven strategies and emphasize the importance of feature choice for building more inclusive human-centered tools.
- Abstract(参考訳): 人間のグループ間相互作用をサポートする人工エージェントは、特に幸福な促進や治療介入のようなセンシティブな文脈において、大きな約束を持っている。
しかし、現在のシステムは、神経型でない人々を含むグループ間の相互作用を仲介するのに苦労している。
この制限は、ほとんどのAI検出モデル(例えば、ターンテイク)が神経型集団のデータに基づいて訓練されているために生じる。
この研究は、知的・発達障害を持つ人々との非言語コミュニケーションの中核的なコンポーネントであるアイコンタクト検出の課題に対処することで、包括的AIへの一歩を踏み出す。
まず、新しいデータセット、MIDD(Multi-party Interaction with Intellectual and Developmental Disabilities)を導入し、非定型的な視線とエンゲージメントパターンをキャプチャする。
第2に,クラス不均衡,発話活動,視線分布,相互作用ダイナミクスの相違に着目し,ニューロタイプデータセットとの比較分析の結果を示す。
次に,SVM から FSFNet までの分類器を評価し,MIDD の微調整により性能が向上することを示した。
最後に,6人のセラピストによる焦点群を通して収集された知見を提示し,その定量的知見を解釈し,非定型視線とエンゲージメントパターンの実践的意味を理解する。
これらの結果に基づき、我々はデータ駆動戦略について議論し、より包括的な人間中心のツールを構築する上での機能選択の重要性を強調した。
関連論文リスト
- E-THER: A Multimodal Dataset for Empathic AI - Towards Emotional Mismatch Awareness [3.8298581733964903]
E-THERは言語・視覚的不一致検出のための多次元アノテーションを付加したパーソナライズ・センタード・セラピー・グラウンドド・マルチモーダル・データセットである。
一致訓練されたモデルが、臨界特性において汎用モデルより優れていることを示す。
論文 参考訳(メタデータ) (2025-09-02T08:58:32Z) - Detecting Neurocognitive Disorders through Analyses of Topic Evolution and Cross-modal Consistency in Visual-Stimulated Narratives [83.15653194899126]
神経認知障害(NCD)の早期発見は、時間的介入と疾患管理に不可欠である。
現在のVSNベースのNCD検出法は主にボトムアップ、刺激駆動認知プロセスと密接に結びついている言語マイクロ構造に焦点を当てている。
本稿では,話題の時間的変化を追跡する動的トピックモデル(DTM)と,物語と視覚刺激の相互整合性を測定するテキスト画像時間アライメントネットワーク(TITAN)の2つの新しいマクロ構造手法を提案する。
論文 参考訳(メタデータ) (2025-01-07T12:16:26Z) - Who Walks With You Matters: Perceiving Social Interactions with Groups for Pedestrian Trajectory Prediction [14.009392073139441]
本稿では,GrouP ConCeption(GPCC)モデルを提案する。
GPCCモデルでは、軌道予測精度が大幅に向上し、社会的・個人的ダイナミクスをモデル化する上での有効性が検証された。
論文 参考訳(メタデータ) (2024-12-03T11:47:33Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Learning from Observer Gaze:Zero-Shot Attention Prediction Oriented by Human-Object Interaction Recognition [13.956664101032006]
まず,740種類の相互作用カテゴリの530,000個の固定点を含む,IGという新しい視線固定データセットを収集した。
次に、ゼロショットインタラクション指向の注意予測タスクZeroIAを紹介し、トレーニング中に遭遇しないインタラクションに対する視覚的手がかりを予測するモデルに挑戦する。
第3に、人間観測者の認知過程をエミュレートしてZeroIA問題に取り組むための対話型注意モデルIAを提案する。
論文 参考訳(メタデータ) (2024-05-16T09:34:57Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Functional Graph Contrastive Learning of Hyperscanning EEG Reveals
Emotional Contagion Evoked by Stereotype-Based Stressors [1.8925617030516924]
本研究では,女性ペア間の協調的問題解決作業におけるステレオタイプベースストレス(SBS)の文脈に焦点を当てた。
本研究は、感情伝染の解明を通じて、その基盤となるメカニズムと効果を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-08-22T09:04:14Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。