論文の概要: InterventionLens: A Multi-Agent Framework for Detecting ASD Intervention Strategies in Parent-Child Shared Reading
- arxiv url: http://arxiv.org/abs/2603.13710v1
- Date: Sat, 14 Mar 2026 02:24:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.356328
- Title: InterventionLens: A Multi-Agent Framework for Detecting ASD Intervention Strategies in Parent-Child Shared Reading
- Title(参考訳): InterventionLens:親子共有読解におけるASDインターベンション戦略検出のためのマルチエージェントフレームワーク
- Authors: Xiao Wang, Lu Dong, Ifeoma Nwogu, Srirangaraj Setlur, Venu Govindaraju,
- Abstract要約: InterventionLensは、共有読書ビデオから介護者介入戦略を自動的に検出し、時間的に分断するエンドツーエンドのマルチエージェントシステムである。
ASD-HIデータセットの実験により、InterventionLensはF1スコア全体の79.44%を獲得し、ベースラインを19.72%上回る結果となった。
- 参考スコア(独自算出の注目度): 18.20564232594413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Home-based interventions like parent-child shared reading provide a cost-effective approach for supporting children with autism spectrum disorder (ASD). However, analyzing caregiver intervention strategies in naturalistic home interactions typically relies on expert annotation, which is costly, time-intensive, and difficult to scale. To address this challenge, we propose InterventionLens, an end-to-end multi-agent system for automatically detecting and temporally segmenting caregiver intervention strategies from shared reading videos. Without task-specific model training or fine-tuning, InterventionLens uses a collaborative multi-agent architecture to integrate multimodal interaction content and perform fine-grained strategy analysis. Experiments on the ASD-HI dataset show that InterventionLens achieves an overall F1 score of 79.44\%, outperforming the baseline by 19.72\%. These results suggest that InterventionLens is a promising system for analyzing caregiver intervention strategies in home-based ASD shared reading settings. Additional resources will be released on the project page.
- Abstract(参考訳): 親子共有読書のような家庭ベースの介入は、自閉症スペクトラム障害(ASD)児を支援するために費用対効果の高いアプローチを提供する。
しかし、自然主義的ホームインタラクションにおける介護者介入戦略の分析は、一般的に、コストが高く、時間集約的で、スケールが難しい専門家のアノテーションに依存している。
この課題に対処するために,共有読解ビデオから介護者介入戦略を自動的に検出・時間分割するエンドツーエンドマルチエージェントシステムであるInterventionLensを提案する。
タスク固有のモデルトレーニングや微調整なしで、InterventionLensは協調的なマルチエージェントアーキテクチャを使用して、マルチモーダルインタラクションコンテンツを統合し、きめ細かい戦略分析を行う。
ASD-HIデータセットの実験により、InterventionLensは全体のF1スコア79.44\%を獲得し、ベースラインを19.72\%上回る結果となった。
これらの結果から,InterventionLensはホームベースのASD共有読解設定における介護者介入戦略の分析に有望なシステムであることが示唆された。
追加のリソースはプロジェクトページでリリースされる。
関連論文リスト
- Test-Time Learning of Causal Structure from Interventional Data [50.06913286558919]
共同因果推論を用いたテスト時間トレーニングを併用する新しい手法であるTICL(Test-Time Interventional Causal Learning)を提案する。
具体的には、テスト時にインスタンス固有のトレーニングデータを生成するための自己拡張戦略を設計し、分散シフトを効果的に回避する。
共同因果推論を統合することで,PCにインスパイアされた2相教師付き学習手法を開発し,理論的識別性を確保しつつ,自己拡張学習データを有効に活用した。
論文 参考訳(メタデータ) (2026-02-22T11:23:05Z) - Agentic Spatio-Temporal Grounding via Collaborative Reasoning [80.83158605034465]
時間的ビデオグラウンド(Temporal Video Grounding)は、テキストクエリが与えられたビデオ内の対象物または人の時間的チューブを検索することを目的としている。
本稿では,STVGの課題に対して,オープンワールドおよびトレーニングフリーシナリオに向けたエージェント時空間グラウンド(ASTG)フレームワークを提案する。
具体的には、現代多言語モデル(MLLM)を活用した2つの特殊エージェントSRA(Spatial Reasoning Agent)とTRA(Temporal Reasoning Agent)である。
人気のあるベンチマークの実験は、既存の弱教師付きおよびゼロショットアプローチをマージンで上回る提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2026-02-10T10:16:27Z) - MedSAM-Agent: Empowering Interactive Medical Image Segmentation with Multi-turn Agentic Reinforcement Learning [53.37068897861388]
MedSAM-Agentは、対話的なセグメンテーションを多段階の自律的な意思決定プロセスとして再構築するフレームワークである。
マルチターン・エンド・ツー・エンドの成果検証を統合した2段階のトレーニングパイプラインを開発した。
6つの医療モダリティと21のデータセットにわたる実験は、MedSAM-Agentが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2026-02-03T09:47:49Z) - Modeling Response Consistency in Multi-Agent LLM Systems: A Comparative Analysis of Shared and Separate Context Approaches [0.0]
本稿では,文脈制約,ノイズ,エージェント間の依存性がシステム性能に与える影響を評価する指標として,応答一貫性指数(RCI)を導入する。
提案手法は,メモリ制約とノイズ管理の相互作用に着目した既存研究と異なる。
論文 参考訳(メタデータ) (2025-04-09T21:54:21Z) - SurgRAW: Multi-Agent Workflow with Chain-of-Thought Reasoning for Surgical Intelligence [16.584722724845182]
手術インテリジェンスにおける視覚-言語モデルの統合は、幻覚、ドメイン知識のギャップ、タスク相互依存性の限定的な理解によって妨げられている。
本稿では,CoT駆動型マルチエージェントフレームワークであるSurgRAWについて紹介する。
論文 参考訳(メタデータ) (2025-03-13T11:23:13Z) - Detecting Children with Autism Spectrum Disorder based on Script-Centric Behavior Understanding with Emotional Enhancement [9.55864687646197]
本稿では,ゼロショット自閉症スペクトラム(ASD)検出フレームワークを提案する。
提案したパイプラインは、コンピュータビジョン技術を用いて、音声・視覚データを構造化された行動テキストスクリプトに自動的に変換する。
平均年齢2歳児のASD診断におけるF1スコアは95.24%であり,解釈可能な検出基準が得られた。
論文 参考訳(メタデータ) (2024-11-14T13:07:19Z) - Robust Divergence Learning for Missing-Modality Segmentation [6.144772447916824]
マルチモーダルMRI(Multimodal Magnetic Resonance Imaging)は、脳腫瘍の亜領域を解析するための重要な補完情報を提供する。
自動セグメンテーションのための4つの一般的なMRIモダリティを用いた手法は成功しているが、画像品質の問題、一貫性のないプロトコル、アレルギー反応、コスト要因などにより、モダリティの欠如に悩まされることが多い。
H"古い発散と相互情報に基づく新しい単一モード並列処理ネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-13T03:03:30Z) - Enhancing Autism Spectrum Disorder Early Detection with the Parent-Child Dyads Block-Play Protocol and an Attention-enhanced GCN-xLSTM Hybrid Deep Learning Framework [6.785167067600156]
本研究は,ASDと発達幼児を区別する行動パターンを識別するための,親子ダイズブロックプレイ(PCB)プロトコルを提案する。
40人のASDと89人のTD幼児が親とのブロックプレイに従事している。
このデータセットは、参加者の規模と個々のセッションの長さの両方に関する以前の取り組みを上回る。
論文 参考訳(メタデータ) (2024-08-29T21:53:01Z) - Automating Intervention Discovery from Scientific Literature: A Progressive Ontology Prompting and Dual-LLM Framework [56.858564736806414]
本稿では,大規模言語モデル(LLM)を利用した科学文献の介入の同定手法を提案する。
言語病理領域における64,177論文のコーパスから,2,421件の介入が得られた。
論文 参考訳(メタデータ) (2024-08-20T16:42:23Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Shared Space Transfer Learning for analyzing multi-site fMRI data [83.41324371491774]
マルチボクセルパターン解析(MVPA)は、タスクベース機能磁気共鳴画像(fMRI)データから予測モデルを学習する。
MVPAはよく設計された機能セットと十分なサンプルサイズで機能する。
ほとんどのfMRIデータセットはノイズが多く、高次元で、収集するのに高価で、サンプルサイズも小さい。
本稿では,新しい伝達学習手法として共有空間移動学習(SSTL)を提案する。
論文 参考訳(メタデータ) (2020-10-24T08:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。