論文の概要: The Architecture of a Biologically Plausible Language Organ
- arxiv url: http://arxiv.org/abs/2306.15364v1
- Date: Tue, 27 Jun 2023 10:25:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 13:51:27.446393
- Title: The Architecture of a Biologically Plausible Language Organ
- Title(参考訳): 生物学的に妥当な言語器官の構造
- Authors: Daniel Mitropolsky, Christos H. Papadimitriou
- Abstract要約: 本研究は,スタイリングされたが現実的なニューロン,シナプス,脳領域,可塑性,感覚知覚の簡易モデルからなる,生体可塑性言語器官について述べる。
実験を通して、このモデルが言語習得の重要な初期段階で成功することを示す。
- 参考スコア(独自算出の注目度): 2.5466702304890294
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a simulated biologically plausible language organ, made up of
stylized but realistic neurons, synapses, brain areas, plasticity, and a
simplified model of sensory perception. We show through experiments that this
model succeeds in an important early step in language acquisition: the learning
of nouns, verbs, and their meanings, from the grounded input of only a modest
number of sentences. Learning in this system is achieved through Hebbian
plasticity, and without backpropagation. Our model goes beyond a parser
previously designed in a similar environment, with the critical addition of a
biologically plausible account for how language can be acquired in the infant's
brain, not just processed by a mature brain.
- Abstract(参考訳): 本研究は,スタイリングされたが現実的なニューロン,シナプス,脳領域,可塑性,感覚知覚の簡易モデルからなる,生体可塑性言語器官について述べる。
実験を通して、このモデルが言語習得における重要な初期段階で成功することを示す。名詞、動詞、およびそれらの意味の学習は、ほんの数文の接頭辞から得られる。
このシステムの学習は、ヘビアン可塑性と、バックプロパゲーションなしで達成される。
私たちのモデルは、以前同様の環境で設計されたパーサーを超えており、成熟した脳で処理されただけでなく、幼児の脳内で言語がどのように取得できるかを生物学的に説明できる重要な説明が加わりました。
関連論文リスト
- Brain-Like Language Processing via a Shallow Untrained Multihead Attention Network [16.317199232071232]
大規模言語モデル(LLM)は、人間の言語システムの効果的なモデルであることが示されている。
本研究では、未学習モデルの驚くほどのアライメントを駆動する重要なアーキテクチャコンポーネントについて検討する。
論文 参考訳(メタデータ) (2024-06-21T12:54:03Z) - Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - Universal Syntactic Structures: Modeling Syntax for Various Natural
Languages [0.0]
我々は,人間の脳が文形成の言葉をどう結び付けるかを説明することを目的とする。
構文表現をモデル化する新しい手法が提案され、全ての自然言語に普遍的な構文構造が存在する可能性が示された。
論文 参考訳(メタデータ) (2023-12-28T20:44:26Z) - Causal Graph in Language Model Rediscovers Cortical Hierarchy in Human
Narrative Processing [0.0]
これまでの研究では、言語モデルの特徴がfMRI脳活動にマッピングできることが示されている。
これは、言語モデルにおける情報処理と人間の脳の間に共通点があるのだろうか?
言語モデルにおける情報フローパターンを推定するために,異なる層間の因果関係について検討した。
論文 参考訳(メタデータ) (2023-11-17T10:09:12Z) - Language Generation from Brain Recordings [68.97414452707103]
本稿では,大言語モデルと意味脳デコーダの容量を利用した生成言語BCIを提案する。
提案モデルでは,視覚的・聴覚的言語刺激のセマンティック内容に整合したコヒーレントな言語系列を生成することができる。
本研究は,直接言語生成におけるBCIの活用の可能性と可能性を示すものである。
論文 参考訳(メタデータ) (2023-11-16T13:37:21Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects [82.81964713263483]
言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T15:30:21Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Does injecting linguistic structure into language models lead to better
alignment with brain recordings? [13.880819301385854]
言語モデルと脳記録との整合性は,構文的あるいは意味論的フォーマリズムからのアノテーションに偏りがある場合と評価する。
提案手法は,脳内の意味の組成について,より標的となる仮説の評価を可能にする。
論文 参考訳(メタデータ) (2021-01-29T14:42:02Z) - Crossmodal Language Grounding in an Embodied Neurocognitive Model [28.461246169379685]
ヒトの幼児は早期に自然言語を習得することができる。
神経科学的な観点では、自然言語は具現化され、ほとんど全てではなく、感覚と感覚のモダリティに基礎を置いている。
バイオインスパイアされたメカニズムを反映した言語接地のための神経認知モデルを提案する。
論文 参考訳(メタデータ) (2020-06-24T08:12:09Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。