論文の概要: Monotonic Representation of Numeric Properties in Language Models
- arxiv url: http://arxiv.org/abs/2403.10381v1
- Date: Fri, 15 Mar 2024 15:10:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 16:32:11.748005
- Title: Monotonic Representation of Numeric Properties in Language Models
- Title(参考訳): 言語モデルにおける数値特性の単調表現
- Authors: Benjamin Heinzerling, Kentaro Inui,
- Abstract要約: 言語モデル(LM)は、1902年生まれのカール・ポッパーのような数値的な性質に関する事実的な知識を表現することができる。
本稿では,エンティティの誕生年などの数値特性の表現を簡易に発見・編集する手法を提案する。
数値特性を単調に符号化する低次元部分空間を解釈可能かつ編集可能な方法で見つける。
- 参考スコア(独自算出の注目度): 23.994655790704567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models (LMs) can express factual knowledge involving numeric properties such as Karl Popper was born in 1902. However, how this information is encoded in the model's internal representations is not understood well. Here, we introduce a simple method for finding and editing representations of numeric properties such as an entity's birth year. Empirically, we find low-dimensional subspaces that encode numeric properties monotonically, in an interpretable and editable fashion. When editing representations along directions in these subspaces, LM output changes accordingly. For example, by patching activations along a "birthyear" direction we can make the LM express an increasingly late birthyear: Karl Popper was born in 1929, Karl Popper was born in 1957, Karl Popper was born in 1968. Property-encoding directions exist across several numeric properties in all models under consideration, suggesting the possibility that monotonic representation of numeric properties consistently emerges during LM pretraining. Code: https://github.com/bheinzerling/numeric-property-repr
- Abstract(参考訳): 言語モデル(LM)は、1902年生まれのカール・ポッパーのような数値的な性質に関する事実的な知識を表現することができる。
しかし、この情報をモデルの内部表現にエンコードする方法はよく理解されていない。
本稿では,エンティティの誕生年などの数値特性の表現を簡易に発見・編集する手法を提案する。
経験的に、数値特性を単調に符号化する低次元部分空間を解釈可能かつ編集可能な方法で発見する。
これらの部分空間の方向に沿って表現を編集するとき、LM出力はそれに従って変化する。
カール・ポッパー(Karl Popper)は1929年生まれ、カール・ポッパー(Karl Popper)は1957年生まれ、カール・ポッパー(Karl Popper)は1968年生まれである。
プロパティエンコーディングの方向は、すべてのモデルにおいて考慮されているいくつかの数値特性にまたがって存在し、LM事前学習中に、数値特性の単調表現が一貫して現れる可能性を示唆している。
コード:https://github.com/bheinzerling/numeric-property-repr
関連論文リスト
- Language Models Understand Numbers, at Least Partially [32.45872420139116]
大規模言語モデル(LLM)は様々なタスクにおいて顕著な能力を示してきたが、その内部メカニズムは数学的な問題での使用を妨げる。
言語モデルが数学の基本要素である数を理解するかどうかを考察する。
予備的な研究は、LLMが数の部分的な理解を示し、将来のモデルの数学的能力に関する研究の洞察を提供することを示唆している。
論文 参考訳(メタデータ) (2024-01-08T08:54:22Z) - Successor Heads: Recurring, Interpretable Attention Heads In The Wild [2.4188584949331053]
我々は、後継のヘッドとして、数字、月、日といった自然な順序でトークンを増量するアテンションヘッドを提示する。
大規模な言語モデルにおいて、後継がいかに増加していくのかを裏付ける'mod-10 機能セットを見つけます。
また,Pythiaの後継ヘッドの解釈可能な多意味性を同定し,自然言語データに対する後継ヘッドの挙動についても検討した。
論文 参考訳(メタデータ) (2023-12-14T18:55:47Z) - Large Language Models for Mathematicians [53.27302720305432]
大規模言語モデル(LLM)は、汎用言語理解、特に高品質なテキストやコンピュータコードを生成する能力に多大な関心を集めている。
本稿では,プロの数学者をどの程度支援できるかについて論じる。
論文 参考訳(メタデータ) (2023-12-07T18:59:29Z) - ArthModel: Enhance Arithmetic Skills to Large Language Model [0.0]
この作業は、さまざまな思考方法、トレーニング方法、言語モデルの使用方法を提供します。
コードとモデルはurlhttps://www.eteced.com/eteced/arithmetic_finetuning_v1でリリースされる。
論文 参考訳(メタデータ) (2023-11-30T15:06:50Z) - Lexinvariant Language Models [84.2829117441298]
離散語彙記号から連続ベクトルへの写像であるトークン埋め込みは、任意の言語モデル(LM)の中心にある
我々は、語彙記号に不変であり、したがって実際に固定トークン埋め込みを必要としないテクスチトレキシン変種モデルについて研究する。
十分長い文脈を条件として,レキシン変項LMは標準言語モデルに匹敵する難易度が得られることを示す。
論文 参考訳(メタデータ) (2023-05-24T19:10:46Z) - Does Localization Inform Editing? Surprising Differences in
Causality-Based Localization vs. Knowledge Editing in Language Models [68.03946716358335]
既存の方法と異なる位置にある重みを編集することで、その事実をモデルに格納する方法を変えることができる。
特定のモデルパラメータに事実をローカライズすることで、モデル内の知識を操作する場所がわかると期待しているからです。
我々の結果は、事前訓練された言語モデルがどのように機能するかのより優れた機械的理解が、必ずしも行動の最良の変更方法に関する洞察に結びつくとは限らないことを示唆している。
論文 参考訳(メタデータ) (2023-01-10T21:26:08Z) - Schr\"{o}dinger's Bat: Diffusion Models Sometimes Generate Polysemous
Words in Superposition [71.45263447328374]
近年の研究では、プロンプトが複数の意味を持つ単語を含む場合、テキストから画像への拡散モデルが奇妙な振る舞いを示すことが示されている。
2つの単語のエンコーディングの総和である入力を与えられた場合、このモデルは、この和に表される両方の概念を含む画像を生成することができることを示す。
次に,CLIPエンコーダを用いてプロンプトをエンコードし,意味の重ね合わせとして多文語をエンコードし,線形代数的手法を用いてこれらの表現を編集し,生成した画像に表される感覚に影響を与えることを示した。
論文 参考訳(メタデータ) (2022-11-23T16:26:49Z) - Low-Rank Softmax Can Have Unargmaxable Classes in Theory but Rarely in
Practice [18.296971636710985]
我々は,インフンガルグ可能なトークンの公開言語モデルを検出するアルゴリズムを開発した。
150モデル中13モデルが実際にそのようなトークンを持っていることが分かりました。
論文 参考訳(メタデータ) (2022-03-12T15:34:54Z) - Investigating the Limitations of the Transformers with Simple Arithmetic
Tasks [10.23804850480924]
その結果,表層形状における数値の表現方法がモデルの精度に強い影響を与えていることがわかった。
現代の事前学習型言語モデルは,ごく少数の例から容易に算術を学習できると結論付けている。
論文 参考訳(メタデータ) (2021-02-25T17:22:53Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。