論文の概要: Brain-Inspired Exploration of Functional Networks and Key Neurons in Large Language Models
- arxiv url: http://arxiv.org/abs/2502.20408v1
- Date: Thu, 13 Feb 2025 04:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-09 04:46:51.665416
- Title: Brain-Inspired Exploration of Functional Networks and Key Neurons in Large Language Models
- Title(参考訳): 大規模言語モデルにおける機能的ネットワークとキーニューロンの脳誘発探索
- Authors: Yiheng Liu, Xiaohui Gao, Haiyang Sun, Bao Ge, Tianming Liu, Junwei Han, Xintao Hu,
- Abstract要約: 我々は,大言語モデル(LLM)における機能的ネットワークの探索と同定のために,機能的ニューロイメージング解析の分野における機能的ニューロイメージングと類似した手法を用いる。
実験の結果、人間の脳と同様、LLMは手術中に頻繁に再帰する機能的ネットワークを含んでいることが明らかとなった。
主要な機能的ネットワークのマスキングはモデルの性能を著しく損なう一方、サブセットだけを保持することは効果的な操作を維持するのに十分である。
- 参考スコア(独自算出の注目度): 53.91412558475662
- License:
- Abstract: In recent years, the rapid advancement of large language models (LLMs) in natural language processing has sparked significant interest among researchers to understand their mechanisms and functional characteristics. Although existing studies have attempted to explain LLM functionalities by identifying and interpreting specific neurons, these efforts mostly focus on individual neuron contributions, neglecting the fact that human brain functions are realized through intricate interaction networks. Inspired by cognitive neuroscience research on functional brain networks (FBNs), this study introduces a novel approach to investigate whether similar functional networks exist within LLMs. We use methods similar to those in the field of functional neuroimaging analysis to locate and identify functional networks in LLM. Experimental results show that, similar to the human brain, LLMs contain functional networks that frequently recur during operation. Further analysis shows that these functional networks are crucial for LLM performance. Masking key functional networks significantly impairs the model's performance, while retaining just a subset of these networks is adequate to maintain effective operation. This research provides novel insights into the interpretation of LLMs and the lightweighting of LLMs for certain downstream tasks. Code is available at https://github.com/WhatAboutMyStar/LLM_ACTIVATION.
- Abstract(参考訳): 近年,自然言語処理における大規模言語モデル (LLM) の急速な進歩は,そのメカニズムや機能的特徴を理解するために研究者の間で大きな関心を集めている。
既存の研究では、特定のニューロンを同定し、解釈することでLLMの機能を説明しようとしているが、これらの取り組みは主に個々のニューロンへの貢献に焦点を当てており、複雑な相互作用ネットワークを通じて人間の脳機能が実現されるという事実を無視している。
機能的脳ネットワーク(FBN)に関する認知神経科学の研究から着想を得た本研究では,LLM内に同様の機能的ネットワークが存在するかどうかを探求する新たなアプローチを提案する。
機能的神経画像解析の分野に類似した手法を用いて,LLM内の機能的ネットワークを特定し同定する。
実験の結果、人間の脳と同様、LLMは手術中に頻繁に再帰する機能的ネットワークを含んでいることが明らかとなった。
さらなる分析により、これらの機能的ネットワークはLLMの性能に不可欠であることが示されている。
主要な機能的ネットワークのマスキングはモデルの性能を著しく損なうが、これらのネットワークのサブセットだけを保持することは効果的な操作を維持するのに十分である。
本研究は,LLMの解釈と下流タスクの軽量化に関する新たな知見を提供する。
コードはhttps://github.com/WhatAboutMyStar/LLM_ACTIVATIONで入手できる。
関連論文リスト
- BrainMAP: Learning Multiple Activation Pathways in Brain Networks [77.15180533984947]
本稿では,脳ネットワークにおける複数の活性化経路を学習するための新しいフレームワークであるBrainMAPを紹介する。
本フレームワークは,タスクに関わる重要な脳領域の説明的分析を可能にする。
論文 参考訳(メタデータ) (2024-12-23T09:13:35Z) - Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Understanding Ranking LLMs: A Mechanistic Analysis for Information Retrieval [20.353393773305672]
我々は、LLMのランク付けにおけるニューロンの活性化を調べるために、探索に基づく分析を用いる。
本研究は,語彙信号,文書構造,問合せ文書間相互作用,複雑な意味表現など,幅広い機能カテゴリにまたがる。
我々の発見は、より透明で信頼性の高い検索システムを開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-10-24T08:20:10Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - An Investigation of Neuron Activation as a Unified Lens to Explain Chain-of-Thought Eliciting Arithmetic Reasoning of LLMs [8.861378619584093]
大型言語モデル (LLM) は、Chain-of-Thoughtプロンプトによって引き起こされるときに強い算術的推論能力を示す。
我々は、先行研究による観察を統一的に説明するために、レンズとしての「ニューロン活性化」について検討する。
論文 参考訳(メタデータ) (2024-06-18T05:49:24Z) - Sharing Matters: Analysing Neurons Across Languages and Tasks in LLMs [70.3132264719438]
我々は,タスクや言語間でニューロンの活性化がどのように共有されるかを調べることで,研究ギャップを埋めることを目指している。
我々は、異なる言語にまたがる特定の入力に対する応答に基づいて、ニューロンを4つの異なるカテゴリに分類する。
分析の結果, (i) ニューロン共有のパターンはタスクや例の特徴に大きく影響され, (ii) ニューロン共有は言語類似性に完全には対応しない, (iii) 共有ニューロンは応答の生成において重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-13T16:04:11Z) - Contextual Feature Extraction Hierarchies Converge in Large Language
Models and the Brain [12.92793034617015]
大規模言語モデル(LLM)がベンチマークタスクで高いパフォーマンスを達成するにつれ、より脳に近いものになることを示す。
また、モデルの性能と脳の類似性を改善する上で、文脈情報の重要性を示す。
論文 参考訳(メタデータ) (2024-01-31T08:48:35Z) - Functional2Structural: Cross-Modality Brain Networks Representation
Learning [55.24969686433101]
脳ネットワーク上のグラフマイニングは、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を促進する可能性がある。
本稿では,Deep Signed Brain Networks (DSBN) と呼ばれる新しいグラフ学習フレームワークを提案する。
臨床表現型および神経変性疾患予測の枠組みを,2つの独立した公開データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-06T03:45:36Z) - Estimating Reproducible Functional Networks Associated with Task
Dynamics using Unsupervised LSTMs [4.697267141773321]
長期メモリ(LSTM)を用いた反復ニューラルネットワークを用いたタスクアクティビティに関連するより再現性の高い機能的ネットワーク推定手法を提案する。
LSTMモデルは、興味のある領域における機能的磁気共鳴画像(fMRI)時系列データを生成するために、教師なしの方法で訓練される。
LSTMモデルにより学習された機能的ネットワークは,他の手法と比較して,タスクのアクティビティやダイナミクスに強く関連していることを示す。
論文 参考訳(メタデータ) (2021-05-06T17:53:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。