論文の概要: How well does surprisal explain N400 amplitude under different
experimental conditions?
- arxiv url: http://arxiv.org/abs/2010.04844v1
- Date: Fri, 9 Oct 2020 23:18:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 04:11:33.118858
- Title: How well does surprisal explain N400 amplitude under different
experimental conditions?
- Title(参考訳): 実験条件の違いでN400振幅はどの程度説明できるのか?
- Authors: James A. Michaelov and Benjamin K. Bergen
- Abstract要約: 我々は、N400の神経言語学的研究から刺激の素因を計算するために、繰り返しニューラルネットワークを用いている。
我々は,N400の振幅を広範囲に予測でき,その反応の根底にある神経認知過程に関する貴重な知見を得られない症例を見出した。
- 参考スコア(独自算出の注目度): 0.6091702876917281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the extent to which word surprisal can be used to predict a
neural measure of human language processing difficulty - the N400. To do this,
we use recurrent neural networks to calculate the surprisal of stimuli from
previously published neurolinguistic studies of the N400. We find that
surprisal can predict N400 amplitude in a wide range of cases, and the cases
where it cannot do so provide valuable insight into the neurocognitive
processes underlying the response.
- Abstract(参考訳): 我々は,人間の言語処理の難しさの神経指標であるN400を予測するために,単語susprisalがどの程度用いられるかを検討する。
これを実現するために、我々はN400の神経言語学的研究から刺激の素因を計算するためにリカレントニューラルネットワークを使用する。
我々は,N400の振幅を広範囲に予測でき,その反応の根底にある神経認知過程に関する貴重な知見を得られない症例を見出した。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Mitigating Biases for Instruction-following Language Models via Bias Neurons Elimination [54.865941973768905]
本稿では,命令追従設定における言語モデルのバイアスニューロンを除去するための,新しい実用的なバイアス緩和手法であるCRISPRを提案する。
CRISPRは自動的にバイアス出力を決定し、バイアス出力に影響を与えるニューロンを説明可能性法を用いてバイアスニューロンに分類する。
実験により,モデルのタスク性能と既存知識を損なうことなく,ゼロショット命令追従条件下でのバイアス軽減効果が示された。
論文 参考訳(メタデータ) (2023-11-16T07:16:55Z) - Deep learning for spike detection in deep brain stimulation surgery [0.0]
深部脳刺激(Deep brain stimulation、DBS)はパーキンソン病などの病態の治療に成功している神経外科手術である。
電気刺激は、脳の特定の焦点に電極を埋め込むことによって行われ、疾患の症状を著しく減少させる。
本稿では,深層学習を用いたDBS脳外科手術中に取得した神経活動の記録を解析する手法を提案する。
論文 参考訳(メタデータ) (2023-08-04T13:15:05Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - So Cloze yet so Far: N400 Amplitude is Better Predicted by
Distributional Information than Human Predictability Judgements [0.6445605125467573]
我々は,自然言語刺激がN400の振幅を変調する方法を,計算言語モデルや人間の言語予測がよく反映するかどうかを検討する。
3つの最上位の現代言語モデルの予測は、人間の予測よりもN400と密接に一致していることがわかった。
このことは、N400の下の予測過程が、以前考えられていたよりも言語の表面レベル統計に敏感であることを示している。
論文 参考訳(メタデータ) (2021-09-02T22:00:10Z) - Different kinds of cognitive plausibility: why are transformers better
than RNNs at predicting N400 amplitude? [0.5735035463793008]
トランスフォーマー言語モデルは、他のアーキテクチャを持つ言語モデルよりも、人間の言語理解を評価するのに使用されるメトリクスを予測するのに優れていることが判明した。
本研究では,人間における意味的ファシリテーションの効果に類似した,先行した文脈の予測が影響していることを示す。
論文 参考訳(メタデータ) (2021-07-20T17:33:13Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Factorized Neural Processes for Neural Processes: $K$-Shot Prediction of
Neural Responses [9.792408261365043]
我々は,小さな刺激応答対からニューロンのチューニング関数を推定するファクトリズ・ニューラル・プロセスを開発した。
本稿では,ニューラルプロセスからの予測および再構成された受容場が,試行数の増加とともに真理に近づいたことをシミュレートした応答を示す。
この新しいディープラーニングシステム識別フレームワークは、ニューラルネットワークモデリングを神経科学実験にリアルタイムに組み込むのに役立つと信じている。
論文 参考訳(メタデータ) (2020-10-22T15:43:59Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。