論文の概要: Information Flow Routes: Automatically Interpreting Language Models at Scale
- arxiv url: http://arxiv.org/abs/2403.00824v2
- Date: Tue, 16 Apr 2024 23:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 18:41:31.837721
- Title: Information Flow Routes: Automatically Interpreting Language Models at Scale
- Title(参考訳): 情報フロー経路:大規模言語モデルの自動解釈
- Authors: Javier Ferrando, Elena Voita,
- Abstract要約: 情報は、モデルに実装されたメカニズムを介して、ネットワーク内のルートによって流れる。
私たちはこれらのグラフをトップダウンで構築し、各予測は最も重要なノードとエッジだけを残します。
いくつかのモデルコンポーネントは、コーディングや多言語テキストのようなドメインに特化できることを示す。
- 参考スコア(独自算出の注目度): 9.156549818722581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Information flows by routes inside the network via mechanisms implemented in the model. These routes can be represented as graphs where nodes correspond to token representations and edges to operations inside the network. We automatically build these graphs in a top-down manner, for each prediction leaving only the most important nodes and edges. In contrast to the existing workflows relying on activation patching, we do this through attribution: this allows us to efficiently uncover existing circuits with just a single forward pass. Additionally, the applicability of our method is far beyond patching: we do not need a human to carefully design prediction templates, and we can extract information flow routes for any prediction (not just the ones among the allowed templates). As a result, we can talk about model behavior in general, for specific types of predictions, or different domains. We experiment with Llama 2 and show that the role of some attention heads is overall important, e.g. previous token heads and subword merging heads. Next, we find similarities in Llama 2 behavior when handling tokens of the same part of speech. Finally, we show that some model components can be specialized on domains such as coding or multilingual texts.
- Abstract(参考訳): 情報は、モデルに実装されたメカニズムを介して、ネットワーク内のルートによって流れる。
これらのルートは、ノードがネットワーク内の操作にトークン表現とエッジに対応するグラフとして表現できる。
私たちはこれらのグラフをトップダウンで自動的に構築し、各予測は最も重要なノードとエッジだけを残します。
アクティベーションパッチを頼りにしている既存のワークフローとは対照的に、私たちは属性を通じてこれを実行します。
予測テンプレートを慎重に設計する必要はなく、任意の予測のための情報フロー経路(許容テンプレートの内だけでなく)を抽出することができる。
結果として、特定の種類の予測、または異なるドメインに対して、モデル行動全般について話すことができる。
我々はLlama 2を用いて実験を行い、例えば以前のトークンヘッドとサブワードマージヘッドのような注意頭の役割が全体的に重要であることを示した。
次に,Llama 2の動作に類似性を見出す。
最後に、符号化や多言語テキストなどのドメインに特化できるモデルコンポーネントについて述べる。
関連論文リスト
- Higher-Order DeepTrails: Unified Approach to *Trails [7.270112855088838]
人間の振る舞いを分析し、理解し、記述することは、Webブラウジングやトラフィックナビゲーションなど、異なる設定で有利である。
本稿では,従来,シーケンス内の高次依存関係のモデル化に用いられてきた自動回帰言語モデルを用いて,シーケンス全体を解析することを提案する。
提案手法は,HypTrails,MixedTrails,さらにはSubTrailsなど,従来の作業で導入された異なる設定に容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-06T06:54:11Z) - One for All: Towards Training One Graph Model for All Classification Tasks [61.656962278497225]
様々なグラフタスクの統一モデルは、主にグラフ学習領域に固有の課題のために、まだ探索されていない。
上記の課題に対処するために単一のグラフモデルを使用できる最初の汎用フレームワークである textbfOne for All (OFA) を提案する。
OFAは様々なタスクでうまく機能し、グラフ上の最初の汎用のクロスドメイン分類モデルとなる。
論文 参考訳(メタデータ) (2023-09-29T21:15:26Z) - Single Sequence Prediction over Reasoning Graphs for Multi-hop QA [8.442412179333205]
局所推論グラフ(モデル)フットノートコード/モデル上での単一シーケンス予測手法を提案する。
グラフニューラルネットワークを用いて、このグラフ構造を符号化し、結果の表現をモデルのエンティティ表現に融合する。
実験の結果, 正確なマッチング/F1のスコアと, 推論経路におけるグラウンドの忠実度は有意に向上した。
論文 参考訳(メタデータ) (2023-07-01T13:15:09Z) - Towards Few-shot Entity Recognition in Document Images: A Graph Neural
Network Approach Robust to Image Manipulation [38.09501948846373]
トークン間のトポロジ的隣接関係を導入し、相対的な位置情報を強調する。
言語モデル埋め込みの上にグラフニューラルネットワーク層を追加することにより、これらのグラフを事前訓練された言語モデルに組み込む。
2つのベンチマークデータセットの実験によると、LAGERは異なる数ショット設定で強いベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2023-05-24T07:34:33Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。