論文の概要: NormXLogit: The Head-on-Top Never Lies
- arxiv url: http://arxiv.org/abs/2411.16252v1
- Date: Mon, 25 Nov 2024 10:12:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:21:43.180654
- Title: NormXLogit: The Head-on-Top Never Lies
- Title(参考訳): NormXLogit:ヘッド・オン・Topは嘘をつかない
- Authors: Sina Abbasi, Mohammad Reza Modarres, Mohammad Taher Pilehvar,
- Abstract要約: トランスフォーマーアーキテクチャは、大きな言語モデルを構築する上で主要な選択肢となっている。
個々の入力トークンの意義を評価するため,NormXLogitと呼ばれる新しい手法を提案する。
提案手法は,忠実度の観点から,既存の勾配法よりも一貫して優れていることを示す。
- 参考スコア(独自算出の注目度): 15.215985417763472
- License:
- Abstract: The Transformer architecture has emerged as the dominant choice for building large language models (LLMs). However, with new LLMs emerging on a frequent basis, it is important to consider the potential value of architecture-agnostic approaches that can provide interpretability across a variety of architectures. Despite recent successes in the interpretability of LLMs, many existing approaches rely on complex methods that are often tied to a specific model design and come with a significant computational cost. To address these limitations, we propose a novel technique, called NormXLogit, for assessing the significance of individual input tokens. This method operates based on the input and output representations associated with each token. First, we demonstrate that during the pre-training of LLMs, the norms of word embeddings capture the importance of input tokens. Second, we reveal a significant relationship between a token's importance and the extent to which its representation can resemble the model's final prediction. Through extensive analysis, we show that our approach consistently outperforms existing gradient-based methods in terms of faithfulness. Additionally, our method achieves better performance in layer-wise explanations compared to the most prominent architecture-specific methods.
- Abstract(参考訳): Transformerアーキテクチャは、大きな言語モデル(LLM)を構築する上で主要な選択肢となっている。
しかし、新しいLLMが頻繁に出現するにつれて、アーキテクチャに依存しないアプローチの潜在的な価値を考えることが重要となる。
近年のLLMの解釈可能性の成功にもかかわらず、既存の多くのアプローチは、しばしば特定のモデル設計に結びついており、計算コストがかなり高い複雑な手法に依存している。
これらの制約に対処するため,NormXLogitと呼ばれる新しい手法を提案し,個々の入力トークンの意義を評価する。
この方法は各トークンに関連付けられた入力および出力表現に基づいて動作する。
まず,LLMの事前学習において,単語埋め込みの規範が入力トークンの重要性を捉えていることを示す。
第二に、トークンの重要性と、その表現がモデルの最終的な予測に類似できる範囲との間に有意な関係を明らかにする。
広範囲な分析を通して、我々のアプローチは忠実性の観点から既存の勾配に基づく手法を一貫して上回っていることを示す。
さらに,本手法は,最も顕著なアーキテクチャ固有の手法と比較して,レイヤワイドな説明における性能の向上を実現している。
関連論文リスト
- TokenSHAP: Interpreting Large Language Models with Monte Carlo Shapley Value Estimation [0.0]
TokenSHAPは、大規模言語モデルを解釈する新しい方法である。
これは、協調ゲーム理論から自然言語処理へのシェープリー値の適応である。
トークンの重要性を解釈可能で定量的に測定する。
論文 参考訳(メタデータ) (2024-07-14T08:07:50Z) - Explaining Modern Gated-Linear RNNs via a Unified Implicit Attention Formulation [54.50526986788175]
効率的なシーケンスモデリングの最近の進歩は、Mamba、RWKV、および様々なゲートRNNのような注意のないレイヤーを生み出している。
我々はこれらのモデルの統一的なビューを示し、暗黙の因果自己注意層のような層を定式化する。
筆者らのフレームワークは,異なるレイヤに対する類似の基盤となるメカニズムを比較検討し,説明可能性の手法を直接適用する手段を提供する。
論文 参考訳(メタデータ) (2024-05-26T09:57:45Z) - VANER: Leveraging Large Language Model for Versatile and Adaptive Biomedical Named Entity Recognition [3.4923338594757674]
大型言語モデル(LLM)は、様々な種類のエンティティを抽出できるモデルを訓練するために使用することができる。
本稿では,オープンソースのLLM LLaMA2をバックボーンモデルとして利用し,異なるタイプのエンティティとデータセットを区別するための具体的な命令を設計する。
我々のモデルVANERは、パラメータの小さな分割で訓練され、従来のLLMモデルよりも大幅に優れており、LLMをベースとしたモデルとして初めて、従来の最先端のBioNERシステムの大部分を上回りました。
論文 参考訳(メタデータ) (2024-04-27T09:00:39Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - SymbolicAI: A framework for logic-based approaches combining generative models and solvers [9.841285581456722]
生成過程における概念学習とフロー管理に論理的アプローチを取り入れた,汎用的でモジュール化されたフレームワークであるSybolicAIを紹介する。
我々は,大規模言語モデル(LLM)を,自然言語命令と形式言語命令の両方に基づいてタスクを実行する意味的解決器として扱う。
論文 参考訳(メタデータ) (2024-02-01T18:50:50Z) - Guiding Language Model Reasoning with Planning Tokens [122.43639723387516]
大規模言語モデル(LLM)は、最近、複雑な推論タスクを実行する能力に対して、かなりの関心を集めている。
より構造的なチェーン・オブ・シークレット・ステップの創出を促す階層的な生成手法を提案する。
提案手法では、トレーニング可能なパラメータ(0.001%)の無視可能な増加が必要であり、完全な微調整か、よりパラメータ効率の良いスキームで適用することができる。
論文 参考訳(メタデータ) (2023-10-09T13:29:37Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。