論文の概要: A technical note on bilinear layers for interpretability
- arxiv url: http://arxiv.org/abs/2305.03452v1
- Date: Fri, 5 May 2023 11:56:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 14:09:44.722339
- Title: A technical note on bilinear layers for interpretability
- Title(参考訳): 解釈性のための双線型層に関する技術ノート
- Authors: Lee Sharkey
- Abstract要約: 双線型層は数学的に解析し易いタイプの層である。
バイリニア層に対するこの表現を変換回路の数学的枠組みに統合することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability of neural networks to represent more features than neurons makes
interpreting them challenging. This phenomenon, known as superposition, has
spurred efforts to find architectures that are more interpretable than standard
multilayer perceptrons (MLPs) with elementwise activation functions. In this
note, I examine bilinear layers, which are a type of MLP layer that are
mathematically much easier to analyze while simultaneously performing better
than standard MLPs. Although they are nonlinear functions of their input, I
demonstrate that bilinear layers can be expressed using only linear operations
and third order tensors. We can integrate this expression for bilinear layers
into a mathematical framework for transformer circuits, which was previously
limited to attention-only transformers. These results suggest that bilinear
layers are easier to analyze mathematically than current architectures and thus
may lend themselves to deeper safety insights by allowing us to talk more
formally about circuits in neural networks. Additionally, bilinear layers may
offer an alternative path for mechanistic interpretability through
understanding the mechanisms of feature construction instead of enumerating a
(potentially exponentially) large number of features in large models.
- Abstract(参考訳): ニューロンよりも多くの特徴を表現するニューラルネットワークの能力は、それらの解釈を困難にする。
この現象は重ね合わせ(superposition)として知られ、活性化関数を持つ標準多層パーセプトロン(MLP)よりも解釈可能なアーキテクチャを見つける努力を刺激している。
本稿では,従来のMLPよりも優れた性能を保ちながら,数学的に解析が容易なMPP層の一種である双線形層について検討する。
これらは入力の非線形関数であるが、双線型層は線形演算と三階テンソルだけで表現できることを実証する。
この表現を、それまで注目のみの変換器に限られていた変換器回路の数学的枠組みに組み込むことができる。
これらの結果は、バイリニア層が現在のアーキテクチャよりも数学的に解析しやすいことを示し、ニューラルネットワークの回路についてより正式に話すことによって、より深い安全性の洞察に役立てることを示唆している。
さらに、双線型層は、大きなモデルにおいて(潜在的に指数関数的に)多数の特徴を列挙するのではなく、特徴構築のメカニズムを理解することによって、機械的解釈可能性の代替経路を提供することができる。
関連論文リスト
- Bilinear MLPs enable weight-based mechanistic interpretability [0.0]
バイリニア層は、現在のアクティベーション関数の解釈可能なドロップイン置換として機能する。
重みに基づく解釈性は、ディープラーニングモデルを理解する上で有効である。
論文 参考訳(メタデータ) (2024-10-10T23:22:11Z) - Unveiling Induction Heads: Provable Training Dynamics and Feature Learning in Transformers [54.20763128054692]
我々は,2層変換器が$n$-gramのマルコフ連鎖データ上でICLを実行するためにどのように訓練されているかを検討する。
クロスエントロピー ICL 損失に対する勾配流が極限モデルに収束することを証明する。
論文 参考訳(メタデータ) (2024-09-09T18:10:26Z) - Weight-based Decomposition: A Case for Bilinear MLPs [0.0]
GLU(Gated Linear Units)は、現代の基礎モデルにおいて一般的なビルディングブロックとなっている。
Bilinear 層は "gate" の非線形性を低下させるが、他の GLU に匹敵する性能を持つ。
双線型テンソルを相互作用する固有ベクトルの集合に分解する手法を開発する。
論文 参考訳(メタデータ) (2024-06-06T10:46:51Z) - How Do Transformers Learn In-Context Beyond Simple Functions? A Case
Study on Learning with Representations [98.7450564309923]
本稿では、より複雑なシナリオにおける文脈内学習(ICL)の理解を、表現を用いた学習で研究する。
合成文内学習問題を合成構造を用いて構築し、ラベルは複雑なが固定された表現関数によって入力に依存する。
理論的には、そのようなアルゴリズムを軽度な深さと大きさでほぼ実装するトランスフォーマーの存在を示す。
論文 参考訳(メタデータ) (2023-10-16T17:40:49Z) - Centered Self-Attention Layers [89.21791761168032]
変圧器の自己保持機構とグラフニューラルネットワークのメッセージ通過機構を繰り返し適用する。
我々は、このアプリケーションが必然的に、より深い層での同様の表現に過剰なスムーシングをもたらすことを示す。
これらの機構の集約演算子に補正項を提示する。
論文 参考訳(メタデータ) (2023-06-02T15:19:08Z) - ReLU Neural Networks with Linear Layers are Biased Towards Single- and Multi-Index Models [9.96121040675476]
この原稿は、2層以上の深さのニューラルネットワークによって学習された関数の性質が予測にどのように影響するかを考察している。
我々のフレームワークは、すべて同じキャパシティを持つが表現コストが異なる、様々な深さのネットワーク群を考慮に入れている。
論文 参考訳(メタデータ) (2023-05-24T22:10:12Z) - Approximation analysis of CNNs from a feature extraction view [8.94250977764275]
我々は、深層多チャンネル畳み込みニューラルネットワーク(CNN)による線形特徴抽出のためのいくつかの解析を確立する。
マルチチャネルCNNを用いて,線形特徴抽出を効率的に行う方法を示す。
チャネルで実装された深層ネットワークによる関数近似の速度も検討した。
論文 参考訳(メタデータ) (2022-10-14T04:09:01Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Gradient-based Competitive Learning: Theory [1.6752712949948443]
本稿では,勾配に基づく学習と競争的な学習を組み合わせることで,この分野の新たな視点を紹介する。
この理論は、ニューラルネットワークが入力行列の変換を直接研究することで、トポロジカル構造を学習できるという直感に基づいている。
提案手法は、トポロジカル学習タスクの広範な選択に一般化できるため、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2020-09-06T19:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。