論文の概要: On Relation-Specific Neurons in Large Language Models
- arxiv url: http://arxiv.org/abs/2502.17355v1
- Date: Mon, 24 Feb 2025 17:33:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:05.651029
- Title: On Relation-Specific Neurons in Large Language Models
- Title(参考訳): 大規模言語モデルにおける関係特異的ニューロンについて
- Authors: Yihong Liu, Runsheng Chen, Lea Hirlimann, Ahmad Dawar Hakimi, Mingyang Wang, Amir Hossein Kargaran, Sascha Rothe, François Yvon, Hinrich Schütze,
- Abstract要約: 統計的手法を用いてLlama-2ファミリーを選定した関係性について検討する。
我々の実験は関係特異的ニューロンの存在を実証した。
関係特異的ニューロンの以下の3つの性質を示す。
- 参考スコア(独自算出の注目度): 47.33286549564444
- License:
- Abstract: In large language models (LLMs), certain neurons can store distinct pieces of knowledge learned during pretraining. While knowledge typically appears as a combination of relations and entities, it remains unclear whether some neurons focus on a relation itself -- independent of any entity. We hypothesize such neurons detect a relation in the input text and guide generation involving such a relation. To investigate this, we study the Llama-2 family on a chosen set of relations with a statistics-based method. Our experiments demonstrate the existence of relation-specific neurons. We measure the effect of selectively deactivating candidate neurons specific to relation $r$ on the LLM's ability to handle (1) facts whose relation is $r$ and (2) facts whose relation is a different relation $r' \neq r$. With respect to their capacity for encoding relation information, we give evidence for the following three properties of relation-specific neurons. $\textbf{(i) Neuron cumulativity.}$ The neurons for $r$ present a cumulative effect so that deactivating a larger portion of them results in the degradation of more facts in $r$. $\textbf{(ii) Neuron versatility.}$ Neurons can be shared across multiple closely related as well as less related relations. Some relation neurons transfer across languages. $\textbf{(iii) Neuron interference.}$ Deactivating neurons specific to one relation can improve LLM generation performance for facts of other relations. We will make our code publicly available at https://github.com/cisnlp/relation-specific-neurons.
- Abstract(参考訳): 大型言語モデル(LLM)では、特定のニューロンは事前訓練中に学んだ知識を個別に保存することができる。
通常、知識は関係と実体の組み合わせとして現れるが、いくつかのニューロンが関係そのものに焦点を当てているかどうかは不明である。
我々は、そのようなニューロンが入力テキスト内の関係を検知し、そのような関係を含むガイド生成を仮定する。
そこで本研究では,統計的手法を用いてLlama-2ファミリーの選択した関係について検討する。
我々の実験は関係特異的ニューロンの存在を実証した。
関係が$r$である事実と、関係が$r'である事実と、関係が$r' \neq r$である事実とを LLM が扱う能力に対して、関係に特有の候補ニューロンを選択的に非活性化させる効果を測定する。
関係情報を符号化する能力については、関係特異的ニューロンの以下の3つの特性を示す。
$\textbf{
(i)神経細胞の累積性
例えば、$r$のニューロンは累積効果を示し、その結果、より多くの事実が$r$で劣化する。
$\textbf{
(II)ニューロンの汎用性。
ニューロンは複数の近縁な関係や関連性の少ない関係で共有できる。
いくつかの関係ニューロンは言語間で伝達する。
$\textbf{
(三)神経細胞の干渉。
例えば、ある関係に特異的なニューロンを不活性化させることで、他の関係の事実に対してLLM生成性能を向上させることができる。
コードをhttps://github.com/cisnlp/relation-specific-neurons.comで公開します。
関連論文リスト
- Neuron Empirical Gradient: Discovering and Quantifying Neurons Global Linear Controllability [14.693407823048478]
本研究はまず,ニューロン活性化とモデル出力の数値的関係について検討する。
ニューロン実験勾配(NEG)の正確かつ効率的な計算法であるNeurGradを導入する。
論文 参考訳(メタデータ) (2024-12-24T00:01:24Z) - Sharing Matters: Analysing Neurons Across Languages and Tasks in LLMs [70.3132264719438]
我々は,タスクや言語間でニューロンの活性化がどのように共有されるかを調べることで,研究ギャップを埋めることを目指している。
我々は、異なる言語にまたがる特定の入力に対する応答に基づいて、ニューロンを4つの異なるカテゴリに分類する。
分析の結果, (i) ニューロン共有のパターンはタスクや例の特徴に大きく影響され, (ii) ニューロン共有は言語類似性に完全には対応しない, (iii) 共有ニューロンは応答の生成において重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-13T16:04:11Z) - Learning dynamic representations of the functional connectome in
neurobiological networks [41.94295877935867]
我々は、生きた行動する動物のニューロン間の動的親和性を学ぶために、教師なしのアプローチを導入する。
本研究では,ニューロン間の因果関係を強く予測し,行動を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T19:54:25Z) - One-hot Generalized Linear Model for Switching Brain State Discovery [1.0132677989820746]
神経信号からの推論された神経相互作用は、主に機能的相互作用を反映する。
学習した前者は状態-状態相互作用を捉え、基礎となる解剖学的コネクトームに光を当てるべきであることを示す。
本手法は,シミュレーションデータにおける真の相互作用構造を効果的に復元し,実際のニューラルネットワークで最高の予測可能性を獲得し,相互作用構造や隠れ状態をより解釈可能なものにする。
論文 参考訳(メタデータ) (2023-10-23T18:10:22Z) - Coupling Artificial Neurons in BERT and Biological Neurons in the Human
Brain [9.916033214833407]
本研究は,トランスフォーマーに基づくNLPモデルと言語に対する神経活動をリンクする,新しい,汎用的で効果的なフレームワークを提案する。
実験の結果,(1)ANsとBNsの活性化は有意に同期し,(2)ANsは意味のある言語/意味情報を持ち,BNシグネチャにアンカーし,(3)アンカーされたBNは神経言語学的文脈で解釈可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-27T01:41:48Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Benchmarking Compositionality with Formal Languages [64.09083307778951]
我々は,NLPにおける大規模ニューラルモデルが,データから学習しながら,原始概念をより大規模な新しい組み合わせに組み込むことができるかどうかを検討する。
多くのトランスデューサをランダムにサンプリングすることにより、ニューラルネットワークによる合成関係の学習性に寄与する特性を探索する。
モデルは完全に関係を学習するか全く学習しないかが分かる。鍵となるのはトランジッションカバレッジであり、トランジッション毎に400の例でソフトな学習可能性制限を設定する。
論文 参考訳(メタデータ) (2022-08-17T10:03:18Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。