論文の概要: What Causes Polysemanticity? An Alternative Origin Story of Mixed
Selectivity from Incidental Causes
- arxiv url: http://arxiv.org/abs/2312.03096v3
- Date: Tue, 13 Feb 2024 06:26:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 12:13:18.715942
- Title: What Causes Polysemanticity? An Alternative Origin Story of Mixed
Selectivity from Incidental Causes
- Title(参考訳): ポリセマンティクスの原因は何か?
偶発的原因からの混合選択性の代替的起源物語
- Authors: Victor Lecomte, Kushal Thaman, Rylan Schaeffer, Naomi Bashkansky,
Trevor Chow, Sanmi Koyejo
- Abstract要約: 一連の無関係な特徴を活性化するポリセマンティックニューロンは、タスク最適化されたディープネットワークの解釈可能性に対する重要な障害と見なされている。
データ内のすべての特徴を表現できるニューロンが多数存在する場合でも、多義性は偶発的に起こる可能性があることを示す。
- 参考スコア(独自算出の注目度): 14.623741848860037
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Polysemantic neurons -- neurons that activate for a set of unrelated features
-- have been seen as a significant obstacle towards interpretability of
task-optimized deep networks, with implications for AI safety. The classic
origin story of polysemanticity is that the data contains more ``features" than
neurons, such that learning to perform a task forces the network to co-allocate
multiple unrelated features to the same neuron, endangering our ability to
understand networks' internal processing. In this work, we present a second and
non-mutually exclusive origin story of polysemanticity. We show that
polysemanticity can arise incidentally, even when there are ample neurons to
represent all features in the data, a phenomenon we term \textit{incidental
polysemanticity}. Using a combination of theory and experiments, we show that
incidental polysemanticity can arise due to multiple reasons including
regularization and neural noise; this incidental polysemanticity occurs because
random initialization can, by chance alone, initially assign multiple features
to the same neuron, and the training dynamics then strengthen such overlap. Our
paper concludes by calling for further research quantifying the
performance-polysemanticity tradeoff in task-optimized deep neural networks to
better understand to what extent polysemanticity is avoidable.
- Abstract(参考訳): 一連の無関係な特徴を活性化するポリセマンティックニューロンは、タスク最適化されたディープネットワークの解釈可能性に対する重要な障害であり、AIの安全性に影響を及ぼすと考えられている。
多意味性の古典的な起源の物語は、データはニューロンよりも「機能」が多く含まれており、タスクを実行するための学習は、ネットワークが複数の無関係な特徴を同じニューロンに同時配置させ、ネットワークの内部処理を理解する能力を危険にさらす。
本研究では,多意味性という2つ目の,非相互排他的起源を提示する。
本研究は,全特徴を表わすニューロンが多数存在する場合でも,偶発的に多意味性が発生することを示し,その現象を「textit{incidental polysemanticity}」という。
理論と実験の組み合わせを用いて、正則化やニューラルノイズなどの複数の理由により偶発的多意味性が生じることを示し、この偶発的多意味性は、ランダム初期化が偶然に同じニューロンに複数の特徴を割り当てることができ、訓練力学がそのような重なり合いを強めることから生じる。
本稿は,タスク最適化深層ニューラルネットワークの性能-多意味性トレードオフを定量化し,多意味性がどの程度回避可能かをより理解するためのさらなる研究を呼び掛けた。
関連論文リスト
- Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - On How Iterative Magnitude Pruning Discovers Local Receptive Fields in Fully Connected Neural Networks [92.66231524298554]
イテレーティブ・マグニチュード・プルーニング(IMP)は、高性能にトレーニング可能なスパースワークを抽出する一般的な方法となっている。
近年の研究では、IMPを完全連結ニューラルネットワーク(FCN)に適用することは、局所受容野(RF)の出現につながることが示されている。
本稿では,非ガウス統計をFCNの表現に反復的に最大化し,局所性を高めるフィードバックループを作成することを提案する。
論文 参考訳(メタデータ) (2024-12-09T14:56:23Z) - PURE: Turning Polysemantic Neurons Into Pure Features by Identifying Relevant Circuits [12.17671779091913]
本稿では、複数の単意味「仮想」ニューロンにポリセマンティックニューロンを分解することで、あらゆるディープニューラルネットワークのポリセマンティック性を遠ざける方法を提案する。
私たちは、ImageNetでトレーニングされたResNetモデルの多意味ユニットを、どのように見つけ、切り離すことができるかを示します。
論文 参考訳(メタデータ) (2024-04-09T16:54:19Z) - Understanding polysemanticity in neural networks through coding theory [0.8702432681310401]
本稿では,ネットワークの解釈可能性に関する新たな実践的アプローチと,多意味性やコードの密度に関する理論的考察を提案する。
ランダムなプロジェクションによって、ネットワークがスムーズか非微分可能かが明らかになり、コードがどのように解釈されるかを示す。
我々のアプローチは、ニューラルネットワークにおける解釈可能性の追求を前進させ、その基盤となる構造についての洞察を与え、回路レベルの解釈可能性のための新たな道を提案する。
論文 参考訳(メタデータ) (2024-01-31T16:31:54Z) - Interpreting Neural Networks through the Polytope Lens [0.2359380460160535]
機械的解釈可能性(Mechanistic Interpretability)は、ニューラルネットワークがナッツ・アンド・ボルトレベルで学んだことを説明することを目的としている。
我々は、活性化空間を多くの離散ポリトープに分割する方法について検討する。
ポリトープレンズはニューラルネットワークの挙動を具体的に予測する。
論文 参考訳(メタデータ) (2022-11-22T15:03:48Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Polysemanticity and Capacity in Neural Networks [1.4174475093445233]
ニューラルネットワークの個々のニューロンは、しばしば無関係な特徴の混合を表す。
この現象は多意味性(polysemanticity)と呼ばれ、ニューラルネットワークの解釈を難しくする。
論文 参考訳(メタデータ) (2022-10-04T20:28:43Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Towards a mathematical framework to inform Neural Network modelling via
Polynomial Regression [0.0]
特定の条件が局所的に満たされた場合、ほぼ同一の予測が可能であることが示されている。
生成したデータから学習すると,そのデータを局所的に近似的に生成する。
論文 参考訳(メタデータ) (2021-02-07T17:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。