論文の概要: Multidimensional Analysis of Specific Language Impairment Using Unsupervised Learning Through PCA and Clustering
- arxiv url: http://arxiv.org/abs/2506.05498v1
- Date: Thu, 05 Jun 2025 18:29:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.194001
- Title: Multidimensional Analysis of Specific Language Impairment Using Unsupervised Learning Through PCA and Clustering
- Title(参考訳): PCAとクラスタリングによる教師なし学習を用いた特定言語障害の多次元解析
- Authors: Niruthiha Selvanayagam,
- Abstract要約: 特定言語障害(SLI)は、子供の約7%に影響を及ぼす。
従来の診断アプローチは、しばしば標準化された評価に依存しており、微妙な発達パターンを見落としている。
本研究の目的は、教師なし機械学習技術を用いて、SLIと非障害児の自然言語発達軌跡を同定することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Specific Language Impairment (SLI) affects approximately 7 percent of children, presenting as isolated language deficits despite normal cognitive abilities, sensory systems, and supportive environments. Traditional diagnostic approaches often rely on standardized assessments, which may overlook subtle developmental patterns. This study aims to identify natural language development trajectories in children with and without SLI using unsupervised machine learning techniques, providing insights for early identification and targeted interventions. Narrative samples from 1,163 children aged 4-16 years across three corpora (Conti-Ramsden 4, ENNI, and Gillam) were analyzed using Principal Component Analysis (PCA) and clustering. A total of 64 linguistic features were evaluated to uncover developmental trajectories and distinguish linguistic profiles. Two primary clusters emerged: (1) high language production with low SLI prevalence, and (2) limited production but higher syntactic complexity with higher SLI prevalence. Additionally, boundary cases exhibited intermediate traits, supporting a continuum model of language abilities. Findings suggest SLI manifests primarily through reduced production capacity rather than syntactic complexity deficits. The results challenge categorical diagnostic frameworks and highlight the potential of unsupervised learning techniques for refining diagnostic criteria and intervention strategies.
- Abstract(参考訳): 特定言語障害(SLI)は、子どもの約7%に影響を及ぼし、通常の認知能力、感覚システム、支援環境にもかかわらず、孤立した言語障害として現れる。
従来の診断アプローチは、しばしば標準化された評価に依存しており、微妙な発達パターンを見落としている。
本研究の目的は、教師なし機械学習技術を用いて、SLIと非SLIの子供における自然言語発達軌跡を同定することであり、早期の識別と対象の介入に対する洞察を提供することである。
コーパス(Conti-Ramsden 4, ENNI, Gillam)を横断する4~16歳児1,163名を対象に主成分分析とクラスタリングを行った。
発達軌跡を解明し,言語的プロファイルを識別するために,64の言語的特徴を評価した。
2つの主要なクラスタが出現した: (1) SLIの頻度が低いハイランゲージ生産、(2) SLIの頻度が低いハイランゲージ生産、(2) SLIの頻度が高いシンタクティック複雑性。
さらに,言語能力の連続モデルをサポートする中間的特徴が認められた。
発見は、SLIが主に、構文的複雑性の欠陥よりも生産能力の低下によって現れることを示唆している。
その結果、分類診断の枠組みに挑戦し、診断基準や介入戦略を洗練するための教師なし学習手法の可能性を強調した。
関連論文リスト
- HiLa: Hierarchical Vision-Language Collaboration for Cancer Survival Prediction [55.00788339683146]
生存予測を改善するための新しい階層型視覚・言語協調フレームワークを提案する。
具体的には、HiLaは事前訓練された特徴抽出器を使用して、パッチレベルとリージョンレベルの両方でWSIから階層的な視覚的特徴を生成する。
このap-proachは、プロンプトから異なる生存関連属性に対応する識別的視覚特徴の包括的学習を可能にする。
論文 参考訳(メタデータ) (2025-07-07T02:06:25Z) - The Emergence of Abstract Thought in Large Language Models Beyond Any Language [95.50197866832772]
大規模言語モデル(LLM)は様々な言語で効果的に機能する。
予備的研究では、LLMの隠れた活性化は、英語以外のプロンプトに反応してもしばしば英語に類似している。
近年の結果は多言語のパフォーマンスが強く、他の言語での特定のタスクにおける英語のパフォーマンスを超えている。
論文 参考訳(メタデータ) (2025-06-11T16:00:54Z) - Mechanistic Understanding and Mitigation of Language Confusion in English-Centric Large Language Models [49.09746599881631]
言語混乱に関する最初の機械論的解釈可能性研究について述べる。
混乱点(CP)がこの現象の中心であることを示す。
本研究は,多言語学習モデルとの比較分析により同定された少数の臨界ニューロンの編集が,混乱を著しく軽減することを示す。
論文 参考訳(メタデータ) (2025-05-22T11:29:17Z) - MultiConAD: A Unified Multilingual Conversational Dataset for Early Alzheimer's Detection [12.803369138301163]
我々は16の認知症関連会話データセットを統合することでAD検出のための新しい多言語データセットを提案する。
第2に、MCIを含む細粒度分類を行い、スパーステキストと高密度テキスト表現を用いて様々な分類器を評価する。
第三に、単言語と多言語の設定で実験を行い、ある言語は多言語訓練の恩恵を受ける一方、他の言語は独立してより優れた性能を発揮することを発見した。
論文 参考訳(メタデータ) (2025-02-26T15:12:37Z) - Detecting Neurocognitive Disorders through Analyses of Topic Evolution and Cross-modal Consistency in Visual-Stimulated Narratives [84.03001845263]
神経認知障害(NCD)の早期発見は、時間的介入と疾患管理に不可欠である。
音声と視覚刺激の相互整合性を測定するための2つの新しい動的マクロ構造手法を提案する。
TITANはCU-MARVEL-RABBITコーパスとADReSSコーパスの両方で優れた性能を示した。
論文 参考訳(メタデータ) (2025-01-07T12:16:26Z) - Detecting Children with Autism Spectrum Disorder based on Script-Centric Behavior Understanding with Emotional Enhancement [9.55864687646197]
本稿では,ゼロショット自閉症スペクトラム(ASD)検出フレームワークを提案する。
提案したパイプラインは、コンピュータビジョン技術を用いて、音声・視覚データを構造化された行動テキストスクリプトに自動的に変換する。
平均年齢2歳児のASD診断におけるF1スコアは95.24%であり,解釈可能な検出基準が得られた。
論文 参考訳(メタデータ) (2024-11-14T13:07:19Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy in Performance and Competence for Form and Meaning [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Specific language impairment (SLI) detection pipeline from transcriptions of spontaneous narratives [0.0]
特定の言語障害(SLI)はコミュニケーションに影響を及ぼし、理解と表現の両方に影響を及ぼす疾患である。
本研究は,1063回のインタビューから得られた自発物語の書き起こしを用いて,子どものSLIを効果的に検出することに焦点を当てた。
論文 参考訳(メタデータ) (2024-06-25T19:22:57Z) - Can large language models understand uncommon meanings of common words? [30.527834781076546]
大規模言語モデル(LLM)は、様々な自然言語理解(NLU)タスクに大きく進歩している。
しかし、LLMがオウムなのか、本当の意味で世界を理解するのかは、広く認知されている試験機構が欠如している。
本稿では,新しい評価指標を用いたレキシカルセマンティックデータセットの革新的構築について述べる。
論文 参考訳(メタデータ) (2024-05-09T12:58:22Z) - Analyzing and Adapting Large Language Models for Few-Shot Multilingual
NLU: Are We There Yet? [82.02076369811402]
教師付きファインチューニング(SFT)、教師付きインストラクションチューニング(SIT)、インコンテキストラーニング(ICL)は、3つの代替であり、事実上の標準的アプローチである。
提案手法は,6つの高・低リソース言語,3つの異なるNLUタスク,多種多様な言語とドメインのセットアップを用いて,3つのアプローチを網羅的かつ体系的に比較する。
そこで本研究では,教師あり指導のチューニングが,性能とリソース要件の最良のトレードオフであることを示す。
論文 参考訳(メタデータ) (2024-03-04T10:48:13Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - Understanding Spoken Language Development of Children with ASD Using
Pre-trained Speech Embeddings [26.703275678213135]
自然言語サンプル(NLS)分析は,従来の手法を補完する有望な手法として注目されている。
本稿では,子どもの音声言語発達の自動評価を支援するために,音声処理技術の応用を提案する。
論文 参考訳(メタデータ) (2023-05-23T14:39:49Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。