論文の概要: BrainBERT: Self-supervised representation learning for intracranial
recordings
- arxiv url: http://arxiv.org/abs/2302.14367v1
- Date: Tue, 28 Feb 2023 07:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:37:30.851857
- Title: BrainBERT: Self-supervised representation learning for intracranial
recordings
- Title(参考訳): BrainBERT:脳内記録のための自己教師付き表現学習
- Authors: Christopher Wang, Vighnesh Subramaniam, Adam Uri Yaari, Gabriel
Kreiman, Boris Katz, Ignacio Cases, Andrei Barbu
- Abstract要約: 我々は、神経科学に現代的な表現学習アプローチをもたらす頭蓋内記録のための再利用可能な変換器BrainBERTを開発した。
NLPや音声認識と同様に、この変換器は複雑な概念を高い精度で、はるかに少ないデータで分類することができる。
将来的には、表現学習を使用することで、はるかに多くの概念がニューラル録音から切り離され、言語モデルがアンロックされた言語のように脳をアンロックする可能性がある。
- 参考スコア(独自算出の注目度): 18.52962864519609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We create a reusable Transformer, BrainBERT, for intracranial recordings
bringing modern representation learning approaches to neuroscience. Much like
in NLP and speech recognition, this Transformer enables classifying complex
concepts, i.e., decoding neural data, with higher accuracy and with much less
data by being pretrained in an unsupervised manner on a large corpus of
unannotated neural recordings. Our approach generalizes to new subjects with
electrodes in new positions and to unrelated tasks showing that the
representations robustly disentangle the neural signal. Just like in NLP where
one can study language by investigating what a language model learns, this
approach opens the door to investigating the brain by what a model of the brain
learns. As a first step along this path, we demonstrate a new analysis of the
intrinsic dimensionality of the computations in different areas of the brain.
To construct these representations, we combine a technique for producing
super-resolution spectrograms of neural data with an approach designed for
generating contextual representations of audio by masking. In the future, far
more concepts will be decodable from neural recordings by using representation
learning, potentially unlocking the brain like language models unlocked
language.
- Abstract(参考訳): 我々は、脳内記録のための再利用可能なトランスフォーマー、brainbertを作成し、現代の表現学習アプローチを神経科学にもたらします。
NLPや音声認識と同様に、この変換器は複雑な概念の分類を可能にする。すなわち、非注釈のニューラルレコードの大きなコーパス上で、教師なしの方法で事前訓練することにより、より高精度で、はるかに少ないデータで、神経データを復号する。
提案手法は、新しい位置にある電極を持つ新しい被験者に一般化し、その表現が神経信号を頑健に歪めていることを示す非関連タスクに一般化する。
言語モデルが何を学ぶかを調べることで言語を研究できるnlpのように、このアプローチは脳のモデルが何を学ぶかによって脳を調べるための扉を開く。
この経路に沿った最初のステップとして、脳の様々な領域における計算の内在的な次元に関する新しい分析を実証する。
これらの表現を構築するために,ニューラルデータの超解像スペクトログラムを生成する手法と,マスキングによる音声の文脈表現を生成する手法を組み合わせた。
将来的には、表現学習を使うことで、より多くの概念が神経録音から切り離され、言語モデルのような脳をアンロックする可能性がある。
関連論文リスト
- Language Reconstruction with Brain Predictive Coding from fMRI Data [28.217967547268216]
予測符号化の理論は、人間の脳が将来的な単語表現を継続的に予測していることを示唆している。
textscPredFTは、BLEU-1スコアが最大27.8%$の最先端のデコード性能を実現する。
論文 参考訳(メタデータ) (2024-05-19T16:06:02Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Investigating the Encoding of Words in BERT's Neurons using Feature
Textualization [11.943486282441143]
本稿では,埋め込み語空間におけるニューロンの表現を生成する手法を提案する。
生成した表現は、個々のニューロンにおける符号化された知識についての洞察を与えることができる。
論文 参考訳(メタデータ) (2023-11-14T15:21:49Z) - Tuning In to Neural Encoding: Linking Human Brain and Artificial
Supervised Representations of Language [31.636016502455693]
我々は,プロンプトチューニングを用いた8つの自然言語理解(NLU)タスクの教師付き表現を生成する。
従来の微調整よりも、中国の刺激に対する神経反応をより正確に予測する表現が、プロンプトチューニングによって得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T06:31:01Z) - Multimodal Neurons in Pretrained Text-Only Transformers [52.20828443544296]
視覚表現を対応するテキストに変換する「マルチモーダルニューロン」を同定する。
マルチモーダルニューロンは入力を横断する特定の視覚概念で動作し、画像キャプションに系統的な因果効果を有することを示す。
論文 参考訳(メタデータ) (2023-08-03T05:27:12Z) - Deep Neural Networks and Brain Alignment: Brain Encoding and Decoding (Survey) [9.14580723964253]
AIモデルを使って脳についての洞察を得ることができるか?
脳記録に関する深層学習モデルの情報はどのようになっているか?
復号化モデルは、fMRIが与えられた刺激を再構成する逆問題を解決する。
近年,自然言語処理,コンピュータビジョン,音声に対するディープラーニングモデルの有効性に触発されて,ニューラルコーディングや復号化モデルが提案されている。
論文 参考訳(メタデータ) (2023-07-17T06:54:36Z) - Deep Learning Models to Study Sentence Comprehension in the Human Brain [0.1503974529275767]
自然言語を処理する最近の人工ニューラルネットワークは、文レベルの理解を必要とするタスクにおいて、前例のないパフォーマンスを達成する。
我々は、これらの人工言語モデルと人間の脳活動を比較する研究をレビューし、このアプローチが自然言語理解に関わる神経プロセスの理解をいかに改善したかを評価する。
論文 参考訳(メタデータ) (2023-01-16T10:31:25Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - DeepA: A Deep Neural Analyzer For Speech And Singing Vocoding [71.73405116189531]
本稿では,従来のボコーダで定義されている音声をエミュレートする入力音声から,F0と音節/音節/音節のエンコーディングを抽出するニューラルボコーダを提案する。
ディープ・ニューラル・アナライザは学習可能であるため、信号の再構成と操作がより正確であり、音声から歌への一般化が期待できる。
論文 参考訳(メタデータ) (2021-10-13T01:39:57Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。