論文の概要: A Neural Model for Word Repetition
- arxiv url: http://arxiv.org/abs/2506.13450v1
- Date: Mon, 16 Jun 2025 13:09:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.481352
- Title: A Neural Model for Word Repetition
- Title(参考訳): 単語反復のためのニューラルモデル
- Authors: Daniel Dager, Robin Sobczyk, Emmanuel Chemla, Yair Lakretz,
- Abstract要約: 本稿では,単語反復の認知モデルと人間の脳の神経機構のギャップを,深層ニューラルネットワークを用いてモデル化することで埋める手法を提案する。
本研究では,(1)単語反復タスクをシミュレートするための大規模なモデルセットのトレーニング,(2)人間の行動研究から既知の影響を探索するためのテストのバッテリの作成,(3)アブレーション研究による脳損傷のシミュレートを行う。
- 参考スコア(独自算出の注目度): 6.699471666564218
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: It takes several years for the developing brain of a baby to fully master word repetition-the task of hearing a word and repeating it aloud. Repeating a new word, such as from a new language, can be a challenging task also for adults. Additionally, brain damage, such as from a stroke, may lead to systematic speech errors with specific characteristics dependent on the location of the brain damage. Cognitive sciences suggest a model with various components for the different processing stages involved in word repetition. While some studies have begun to localize the corresponding regions in the brain, the neural mechanisms and how exactly the brain performs word repetition remain largely unknown. We propose to bridge the gap between the cognitive model of word repetition and neural mechanisms in the human brain by modeling the task using deep neural networks. Neural models are fully observable, allowing us to study the detailed mechanisms in their various substructures and make comparisons with human behavior and, ultimately, the brain. Here, we make first steps in this direction by: (1) training a large set of models to simulate the word repetition task; (2) creating a battery of tests to probe the models for known effects from behavioral studies in humans, and (3) simulating brain damage through ablation studies, where we systematically remove neurons from the model, and repeat the behavioral study to examine the resulting speech errors in the "patient" model. Our results show that neural models can mimic several effects known from human research, but might diverge in other aspects, highlighting both the potential and the challenges for future research aimed at developing human-like neural models.
- Abstract(参考訳): 赤ちゃんの発達する脳が単語の繰り返しを完全にマスターするには、数年かかります。
新しい言語から新しい単語を繰り返すことは、大人にとっても難しい作業である。
さらに、脳卒中などの脳損傷は、脳損傷の位置に依存する特定の特徴を持つ体系的な音声誤りを引き起こす可能性がある。
認知科学は、単語の繰り返しに関わる様々な処理段階の様々な要素を持つモデルを提案する。
一部の研究では、脳の対応する領域の局在化が始まっているが、脳の神経機構と、どのようにして単語の繰り返しを行うかはほとんど分かっていない。
本稿では,単語反復の認知モデルと人間の脳の神経機構のギャップを,深層ニューラルネットワークを用いてモデル化することで埋める手法を提案する。
ニューラルモデルは完全に観測可能であり、様々なサブストラクチャの詳細なメカニズムを研究し、人間の行動と最終的に脳を比較します。
ここでは,(1)単語反復タスクをシミュレートするために,大規模なモデルセットを訓練すること,(2)人間の行動学的研究から既知の影響を探索するためのテストのバッテリを作成すること,(3)脳の損傷をアブレーション研究によってシミュレーションすること,(3)モデルからニューロンを体系的に除去すること,そして,行動研究を繰り返すことで,"患者"モデルにおける発声誤りの検証を行う。
我々の研究結果は、ニューラルモデルが人間の研究から知られているいくつかの効果を模倣できることを示しているが、他の側面から逸脱し、人間のようなニューラルモデルを開発することを目的とした将来の研究の可能性と課題を浮き彫りにしている。
関連論文リスト
- Towards a "universal translator" for neural dynamics at single-cell, single-spike resolution [10.49121904052395]
我々は、複数の脳領域にまたがる多様なタスクを解決できる、神経スパイクデータのための最初の基礎モデルを構築する。
予測タスクには、単一ニューロンとリージョンレベルのアクティビティ予測、前方予測、行動復号化などがある。
論文 参考訳(メタデータ) (2024-07-19T21:05:28Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Neural Erosion: Emulating Controlled Neurodegeneration and Aging in AI Systems [5.720259826430462]
我々は、Large Language Models (LLMs) によるIQテストを使用して、神経浸食の概念を導入する。
この意図的な浸食は、シナプスやニューロンを非難すること、または訓練中または訓練後にガウスノイズを付加することを含み、LSMの性能は制御的に低下する。
私たちの知る限りでは、コンピュータビジョン領域で動作する他の研究と比べて、神経変性をテキストデータでモデル化する最初の研究である。
論文 参考訳(メタデータ) (2024-03-15T18:00:00Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects [82.81964713263483]
言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T15:30:21Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。