論文の概要: Unveiling Language Skills under Circuits
- arxiv url: http://arxiv.org/abs/2410.01334v1
- Date: Wed, 2 Oct 2024 08:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 21:49:06.880159
- Title: Unveiling Language Skills under Circuits
- Title(参考訳): サーキットによる言語スキルの解き方
- Authors: Hang Chen, Jiaying Zhu, Xinyu Yang, Wenya Wang,
- Abstract要約: メモリ回路は、言語モデルのメモリ読み取り機能を完全かつ独立に操作する最小単位である。
我々は,3つの重要な言語スキルに責任を負う,スキルパスと命名された有能な回路パスを同定する。
各種データセットに対する実験により,認識されたスキルパスと言語スキルの対応性を確認した。
- 参考スコア(独自算出の注目度): 31.608080868988825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exploration of language skills in language models (LMs) has always been one of the central goals in mechanistic interpretability. However, existing circuit analyses often fall short in representing the full functional scope of these models, primarily due to the exclusion of Feed-Forward layers. Additionally, isolating the effect of a single language skill from a text, which inherently involves multiple entangled skills, poses a significant challenge. To address these gaps, we introduce a novel concept, Memory Circuit, a minimum unit that fully and independently manipulates the memory-reading functionality of a language model, and disentangle the transformer model precisely into a circuit graph which is an ensemble of paths connecting different memory circuits. Based on this disentanglement, we identify salient circuit paths, named as skill paths, responsible for three crucial language skills, i.e., the Previous Token Skill, Induction Skill and In-Context Learning (ICL) Skill, leveraging causal effect estimation through interventions and counterfactuals. Our experiments on various datasets confirm the correspondence between our identified skill paths and language skills, and validate three longstanding hypotheses: 1) Language skills are identifiable through circuit dissection; 2) Simple language skills reside in shallow layers, whereas complex language skills are found in deeper layers; 3) Complex language skills are formed on top of simpler language skills. Our codes are available at: https://github.com/Zodiark-ch/Language-Skill-of-LLMs.
- Abstract(参考訳): 言語モデル(LM)における言語スキルの探索は、機械的解釈可能性において常に中心的な目標の1つとなっている。
しかし、既存の回路解析は、主にフィードフォワード層を排除したために、これらのモデルの完全な機能範囲を表現できないことが多い。
さらに、複数の絡み合ったスキルを本質的に含むテキストから単一の言語スキルの効果を分離することは、大きな課題となる。
これらのギャップに対処するために,言語モデルのメモリ読み取り機能を完全かつ独立に操作する最小単位であるメモリ回路を導入し,異なるメモリ回路を接続する経路のアンサンブルである回路グラフに変換器モデルを正確に切り離す。
この不整合に基づいて、我々は3つの重要な言語スキル、すなわち先進トケンスキル、誘導スキル、インコンテキストラーニング(ICL)スキルに責任を負うスキルパスとして名付けられた有能な回路経路を同定し、介入と対策による因果効果推定を活用する。
各種データセットを用いた実験により,認識されたスキルパスと言語スキルの対応性を確認し,長期にわたる3つの仮説を検証した。
1) 言語スキルは,回路分割により識別することができる。
2) 単純な言語スキルは浅い層に、複雑な言語スキルは深い層に存在している。
3)より単純な言語スキルの上に複雑な言語スキルが形成される。
私たちのコードは、https://github.com/Zodiark-ch/Language-Skill-of-LLMsで利用可能です。
関連論文リスト
- Position-aware Automatic Circuit Discovery [59.64762573617173]
我々は既存の回路探索手法のギャップを同定し、モデル成分を入力位置間で等しく関連するものとして扱う。
可変長例を含むタスクであっても,回路に位置性を組み込むための2つの改良を提案する。
提案手法により, 位置感応回路の完全自動検出が可能となり, 従来よりも回路サイズと忠実度とのトレードオフが良好になる。
論文 参考訳(メタデータ) (2025-02-07T00:18:20Z) - Navigating Shortcuts, Spurious Correlations, and Confounders: From Origins via Detection to Mitigation [21.21130450731374]
Clever Hans氏の行動、刺激的な相関、あるいは共同設立者は、機械学習とAIにおいて重要な課題を提示している。
この領域の研究は、様々な用語で断片化され、分野全体の進歩を妨げている。
我々は,ショートカットを形式的に定義し,文献で用いられる多種多様な用語をブリッジすることによって,統一された分類を導入する。
論文 参考訳(メタデータ) (2024-12-06T16:10:13Z) - Circuit Compositions: Exploring Modular Structures in Transformer-Based Language Models [22.89563355840371]
言語モデル内の高構成サブタスクの回路解析により,ニューラルネットワークのモジュラリティについて検討する。
以上の結果から,機能的に類似した回路は,ノード重なりとクロスタスク忠実度の両方を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-10-02T11:36:45Z) - Transformer Circuit Faithfulness Metrics are not Robust [0.04260910081285213]
回路の「忠実さ」を、モデルの計算の一部を損なうことによって測定する。
既存の回路忠実度スコアは、研究者の方法論的選択と回路の実際の構成要素の両方を反映していると結論付けている。
機械的解釈可能性の研究の最終的な目標は、ニューラルネットワークを理解することです。
論文 参考訳(メタデータ) (2024-07-11T17:59:00Z) - Functional Faithfulness in the Wild: Circuit Discovery with Differentiable Computation Graph Pruning [14.639036250438517]
本稿では、DiscoGPとともにCircuit Discoveryと呼ばれるタスクを包括的に再構築する。
DiscoGPは、回路発見のための識別可能なマスキングに基づく、新しく効果的なアルゴリズムである。
論文 参考訳(メタデータ) (2024-07-04T09:42:25Z) - Sparse Feature Circuits: Discovering and Editing Interpretable Causal Graphs in Language Models [55.19497659895122]
本稿ではスパース特徴回路の発見と適用方法を紹介する。
これらは言語モデルの振る舞いを説明するための人間の解釈可能な特徴の因果関係の著作である。
論文 参考訳(メタデータ) (2024-03-28T17:56:07Z) - Joint Language Semantic and Structure Embedding for Knowledge Graph
Completion [66.15933600765835]
本稿では,知識三重項の自然言語記述と構造情報とを共同で組み込むことを提案する。
本手法は,学習済み言語モデルを微調整することで,完了作業のための知識グラフを埋め込む。
各種知識グラフベンチマーク実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2022-09-19T02:41:02Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Hierarchical Skills for Efficient Exploration [70.62309286348057]
強化学習において、事前訓練された低レベルスキルは、探索を大幅に促進する可能性がある。
下流タスクの以前の知識は、スキルデザインにおける一般性(きめ細かい制御)と特異性(より高速な学習)の適切なバランスをとるために必要である。
教師なしの方法で様々な複雑さのスキルを習得する階層的スキル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:29:32Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。