論文の概要: From Prediction to Understanding: Will AI Foundation Models Transform Brain Science?
- arxiv url: http://arxiv.org/abs/2509.17280v1
- Date: Sun, 21 Sep 2025 23:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.195489
- Title: From Prediction to Understanding: Will AI Foundation Models Transform Brain Science?
- Title(参考訳): 予測から理解へ:AIファンデーションモデルは脳科学を変えるのか?
- Authors: Thomas Serre, Ellie Pavlick,
- Abstract要約: 生成事前学習(ChatGPTの「GPT」)は、人間の監督なしに大量のインターネットテキストから言語モデルを学習することを可能にする。
ファンデーションモデルという用語は、ドメイン内およびドメイン間の幅広いタスクに適応可能な、大規模な事前訓練されたシステムを指す。
これらのモデルは強い予測精度を達成し、計算原理を照らすことを期待する。
ここでは、ファンデーションモデルが脳科学に生産的に統合される方法について概説し、彼らの約束と限界の両方を強調します。
- 参考スコア(独自算出の注目度): 37.27364085324663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative pretraining (the "GPT" in ChatGPT) enables language models to learn from vast amounts of internet text without human supervision. This approach has driven breakthroughs across AI by allowing deep neural networks to learn from massive, unstructured datasets. We use the term foundation models to refer to large pretrained systems that can be adapted to a wide range of tasks within and across domains, and these models are increasingly applied beyond language to the brain sciences. These models achieve strong predictive accuracy, raising hopes that they might illuminate computational principles. But predictive success alone does not guarantee scientific understanding. Here, we outline how foundation models can be productively integrated into the brain sciences, highlighting both their promise and their limitations. The central challenge is to move from prediction to explanation: linking model computations to mechanisms underlying neural activity and cognition.
- Abstract(参考訳): 生成事前学習(ChatGPTの「GPT」)は、人間の監督なしに大量のインターネットテキストから言語モデルを学習することを可能にする。
このアプローチは、大規模で非構造的なデータセットから深層ニューラルネットワークを学習可能にすることによって、AI全体のブレークスルーを導いた。
基礎モデルという用語は、ドメイン内およびドメイン間の幅広いタスクに適応可能な、大規模な事前訓練されたシステムを指すものであり、これらのモデルは、言語を越えて脳科学に適用されることが増えている。
これらのモデルは強い予測精度を達成し、計算原理を照らすことを期待する。
しかし、予測的な成功だけでは科学的理解は保証されない。
ここでは、ファンデーションモデルが脳科学に生産的に統合される方法について概説し、彼らの約束と限界の両方を強調します。
中心的な課題は、予測から説明へ、モデル計算を神経活動と認知の基礎となるメカニズムにリンクすることである。
関連論文リスト
- pyhgf: A neural network library for predictive coding [0.2150989251218736]
texttpyhgfは、予測コーディングのための動的ネットワークの作成、操作、サンプリングのためのPythonパッケージである。
ネットワークコンポーネントを透過的でモジュール的で、拡張可能な変数としてメッセージパッシングステップに囲み込むことで、他のフレームワークよりも改善します。
コア変数の透明性は、自己組織化の原則を活用する推論プロセスにも変換できる。
論文 参考訳(メタデータ) (2024-10-11T19:21:38Z) - From Neurons to Neutrons: A Case Study in Interpretability [5.242869847419834]
高次元ニューラルネットワークはトレーニングデータの低次元表現を学習することができると我々は主張する。
このことは、解釈可能性に対するそのようなアプローチが、問題を解決するために訓練されたモデルから問題に対する新しい理解を導き出すのに有用であることを示している。
論文 参考訳(メタデータ) (2024-05-27T17:59:35Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Meta predictive learning model of languages in neural circuits [2.5690340428649328]
本稿では,予測符号化フレームワークにおける平均場学習モデルを提案する。
我々のモデルでは、ほとんどの接続は学習後に決定論的になる。
本モデルは,脳計算,次点予測,一般知能の関連性を調べるための出発点となる。
論文 参考訳(メタデータ) (2023-09-08T03:58:05Z) - A Survey on Brain-Inspired Deep Learning via Predictive Coding [85.93245078403875]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - State space models can express n-gram languages [51.823427608117626]
我々は、n-gramルールから生成された言語に対して、次の単語予測タスクを解くことのできる状態空間言語モデルを構築している。
我々の証明は、SSMがn-gramルールをその能力に関する新たな理論的結果を用いてエンコードする方法を示している。
n-gramルールから生成された小さなデータセットを用いて実験を行い、勾配に基づく最適化によって得られたSSMやRNNにフレームワークをどのように適用できるかを示す。
論文 参考訳(メタデータ) (2023-06-20T10:41:23Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。