論文の概要: Tuning In to Neural Encoding: Linking Human Brain and Artificial
Supervised Representations of Language
- arxiv url: http://arxiv.org/abs/2310.04460v1
- Date: Thu, 5 Oct 2023 06:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 18:29:36.563502
- Title: Tuning In to Neural Encoding: Linking Human Brain and Artificial
Supervised Representations of Language
- Title(参考訳): ニューラルエンコーディングへのチューニング:人間の脳と人工的教師付き言語表現のリンク
- Authors: Jingyuan Sun, Xiaohan Zhang and Marie-Francine Moens
- Abstract要約: 我々は,プロンプトチューニングを用いた8つの自然言語理解(NLU)タスクの教師付き表現を生成する。
従来の微調整よりも、中国の刺激に対する神経反応をより正確に予測する表現が、プロンプトチューニングによって得られることを示す。
- 参考スコア(独自算出の注目度): 31.636016502455693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To understand the algorithm that supports the human brain's language
representation, previous research has attempted to predict neural responses to
linguistic stimuli using embeddings generated by artificial neural networks
(ANNs), a process known as neural encoding. However, most of these studies have
focused on probing neural representations of Germanic languages, such as
English, with unsupervised ANNs. In this paper, we propose to bridge the gap
between human brain and supervised ANN representations of the Chinese language.
Specifically, we investigate how task tuning influences a pretained Transformer
for neural encoding and which tasks lead to the best encoding performances. We
generate supervised representations on eight Natural Language Understanding
(NLU) tasks using prompt-tuning, a technique that is seldom explored in neural
encoding for language. We demonstrate that prompt-tuning yields representations
that better predict neural responses to Chinese stimuli than traditional
fine-tuning on four tasks. Furthermore, we discover that tasks that require a
fine-grained processing of concepts and entities lead to representations that
are most predictive of brain activation patterns. Additionally, we reveal that
the proportion of tuned parameters highly influences the neural encoding
performance of fine-tuned models. Overall, our experimental findings could help
us better understand the relationship between supervised artificial and brain
language representations.
- Abstract(参考訳): 人間の脳の言語表現を支援するアルゴリズムを理解するために、従来の研究では、ニューラルネットワーク(ANN)によって生成された埋め込みを用いて、言語刺激に対する神経応答を予測することを試みた。
しかしながら、これらの研究のほとんどは、英語などのゲルマン語の神経表現を教師なしのANNで探索することに焦点を当てている。
本稿では,人間の脳と中国語の教師付きANN表現とのギャップを埋めることを提案する。
具体的には,ニューラルエンコーディングのための予備的トランスフォーマーにタスクチューニングがどのように影響し,どのタスクが最高のエンコーディング性能をもたらすかを検討する。
我々は,言語のためのニューラルエンコーディングにおいてほとんど探索されない手法であるプロンプトチューニングを用いて,8つの自然言語理解(NLU)タスクの教師付き表現を生成する。
プロンプトチューニングは、従来の4つのタスクの微調整よりも、中国の刺激に対する神経反応を予測できる表現をもたらすことを実証する。
さらに、概念や実体のきめ細かい処理を必要とするタスクが、脳の活性化パターンを最も予測する表現につながることを発見した。
さらに、調整パラメータの比率が微調整モデルのニューラルエンコーディング性能に大きく影響することを明らかにする。
全体として、我々の実験結果は、教師付き人工言語と脳言語表現の関係をよりよく理解するのに役立ちます。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Decoding Linguistic Representations of Human Brain [21.090956290947275]
テキスト形式と音声形式の両方を脳から言語へ復号する分類法を提案する。
この研究は、言語理解に焦点を当てた神経科学と深層学習に基づく脳復号という2つのタイプの研究を統合している。
論文 参考訳(メタデータ) (2024-07-30T07:55:44Z) - Language Reconstruction with Brain Predictive Coding from fMRI Data [28.217967547268216]
予測符号化の理論は、人間の脳が将来的な単語表現を継続的に予測していることを示唆している。
textscPredFTは、BLEU-1スコアが最大27.8%$の最先端のデコード性能を実現する。
論文 参考訳(メタデータ) (2024-05-19T16:06:02Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Fine-tuned vs. Prompt-tuned Supervised Representations: Which Better
Account for Brain Language Representations? [30.495681024162835]
我々は、ニューラルデコーディングにおいて、プロンプト調整された表現と微調整された表現を比較した。
より脳に一貫性のあるチューニング手法では、脳データと相関する表現が得られます。
これは、私たちの脳が浅い構文情報よりもきめ細かい概念情報を符号化していることを示している。
論文 参考訳(メタデータ) (2023-10-03T07:34:30Z) - BrainBERT: Self-supervised representation learning for intracranial
recordings [18.52962864519609]
我々は、神経科学に現代的な表現学習アプローチをもたらす頭蓋内記録のための再利用可能な変換器BrainBERTを開発した。
NLPや音声認識と同様に、この変換器は複雑な概念を高い精度で、はるかに少ないデータで分類することができる。
将来的には、表現学習を使用することで、はるかに多くの概念がニューラル録音から切り離され、言語モデルがアンロックされた言語のように脳をアンロックする可能性がある。
論文 参考訳(メタデータ) (2023-02-28T07:40:37Z) - Deep Learning Models to Study Sentence Comprehension in the Human Brain [0.1503974529275767]
自然言語を処理する最近の人工ニューラルネットワークは、文レベルの理解を必要とするタスクにおいて、前例のないパフォーマンスを達成する。
我々は、これらの人工言語モデルと人間の脳活動を比較する研究をレビューし、このアプローチが自然言語理解に関わる神経プロセスの理解をいかに改善したかを評価する。
論文 参考訳(メタデータ) (2023-01-16T10:31:25Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。