論文の概要: How Context Shapes Truth: Geometric Transformations of Statement-level Truth Representations in LLMs
- arxiv url: http://arxiv.org/abs/2601.06599v1
- Date: Sat, 10 Jan 2026 15:43:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.891945
- Title: How Context Shapes Truth: Geometric Transformations of Statement-level Truth Representations in LLMs
- Title(参考訳): コンテクストが真実をどう形作るか: LLMにおけるステートメントレベルの真実表現の幾何学的変換
- Authors: Shivam Adarsh, Maria Maistro, Christina Lioma,
- Abstract要約: 大規模言語モデルに文脈を導入すると,真理ベクトルがどのように変化するかを検討する。
真理ベクトルは、大まかに初期層にあり、中層に収束し、後の層で安定化または増加を続ける可能性がある。
また、パラメトリックな知識と矛盾する文脈は、パラメトリックなコンテキストよりも大きな幾何学的変化をもたらすことも見出した。
- 参考スコア(独自算出の注目度): 11.339712661170912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) often encode whether a statement is true as a vector in their residual stream activations. These vectors, also known as truth vectors, have been studied in prior work, however how they change when context is introduced remains unexplored. We study this question by measuring (1) the directional change ($θ$) between the truth vectors with and without context and (2) the relative magnitude of the truth vectors upon adding context. Across four LLMs and four datasets, we find that (1) truth vectors are roughly orthogonal in early layers, converge in middle layers, and may stabilize or continue increasing in later layers; (2) adding context generally increases the truth vector magnitude, i.e., the separation between true and false representations in the activation space is amplified; (3) larger models distinguish relevant from irrelevant context mainly through directional change ($θ$), while smaller models show this distinction through magnitude differences. We also find that context conflicting with parametric knowledge produces larger geometric changes than parametrically aligned context. To the best of our knowledge, this is the first work that provides a geometric characterization of how context transforms the truth vector in the activation space of LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、文が残されるストリームアクティベーションのベクトルとして真であるかどうかを符号化することが多い。
これらのベクトルは、真理ベクトルとしても知られ、先行研究で研究されているが、文脈が導入されたときにどのように変化するかは未解明のままである。
本研究では,(1) 文脈を伴わない真理ベクトル間の方向変化(θ$) と(2) 文脈を追加する際の真理ベクトルの相対的な大きさを測ることにより,本問題を考察する。
4つのLCMと4つのデータセットにわたって、(1)真理ベクトルは初期層で概ね直交し、中層に収束し、後層で安定化または増加し続ける可能性があること、(2)文脈の追加は一般的に真理ベクトルの規模を増大させること、すなわち、活性化空間における真と偽の表現の分離が増幅されること、(3)より大規模なモデルは、主に方向変化(θ$)によって無関係なコンテキストと区別される。
また、パラメトリックな知識と矛盾する文脈は、パラメトリックなコンテキストよりも大きな幾何学的変化をもたらすことも見出した。
我々の知る限りでは、LLMの活性化空間において、文脈が真理ベクトルをどのように変換するかの幾何学的特徴を提供する最初の作品である。
関連論文リスト
- Factual Self-Awareness in Language Models: Representation, Robustness, and Scaling [56.26834106704781]
大規模言語モデル(LLM)のユビキタス展開における主要な関心事の一つは、生成されたコンテンツの事実的誤りである。
我々は, LLMの内部コンパスの存在を裏付ける証拠を提供し, 生成時の事実的リコールの正しさを規定する。
モデルサイズにわたる実験のスケールとトレーニングのダイナミクスは、トレーニング中に自己認識が急速に出現し、中間層でピークとなることを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-27T16:24:02Z) - Exploring Context Window of Large Language Models via Decomposed Positional Vectors [107.19556541244654]
トランスフォーマーベースの大規模言語モデル(LLM)は通常、限られたコンテキストウィンドウを持つ。
本研究では,コンテキストウィンドウ内外の位置情報について検討する。
論文 参考訳(メタデータ) (2024-05-28T09:50:46Z) - The Geometry of Truth: Emergent Linear Structure in Large Language Model Representations of True/False Datasets [6.732432949368421]
大きな言語モデル(LLM)には印象的な能力があるが、偽装を出力する傾向がある。
近年の研究では、LLMの内部アクティベーションに関するプローブを訓練することで、LLMが真実を語っているかどうかを推測する手法が開発されている。
十分な規模で LLM が実言の真偽を線形に表す証拠を示す。
論文 参考訳(メタデータ) (2023-10-10T17:54:39Z) - Linearity of Relation Decoding in Transformer Language Models [82.47019600662874]
トランスフォーマー言語モデル(LM)で符号化された知識の多くは、関係性の観点から表現することができる。
関係のサブセットに対して、この計算は対象表現上の1つの線形変換によってよく近似されることを示す。
論文 参考訳(メタデータ) (2023-08-17T17:59:19Z) - Roto-Translation Equivariant Super-Resolution of Two-Dimensional Flows
Using Convolutional Neural Networks [0.15229257192293202]
畳み込みニューラルネットワーク(CNN)は、画像の色のような方向を持たない量としてベクトルを処理することが多い。
本研究では,ベクトルを幾何学的対象として扱う場合の2次元流体への超解像効果について検討した。
論文 参考訳(メタデータ) (2022-02-22T07:07:07Z) - How LSTM Encodes Syntax: Exploring Context Vectors and Semi-Quantization
on Natural Text [2.881185491084005]
構文構造が暗黙的に与えられる言語モデルを学ぶ。
内部ゲートの出力である文脈更新ベクトルは、ほぼ2進あるいは3進の値に量子化されていることを示す。
文脈ベクトルのいくつかの次元について、それらのアクティベーションは句構造の深さと非常に相関していることを示す。
また、機能的単語の自然なクラスタと、フレーズをトリガーする音声の一部が、LSTMの文脈更新ベクトルの小さいが主部分空間で表現されることを示す。
論文 参考訳(メタデータ) (2020-10-01T12:49:01Z) - FLAMBE: Structural Complexity and Representation Learning of Low Rank
MDPs [53.710405006523274]
この研究は、表現学習の問題に焦点を当てている。
基礎となる(未知の)力学が低階遷移行列に対応するという仮定の下で、表現学習問題と特定の非線形行列分解問題との関連性を示す。
低階遷移モデルにおけるRLの探索と表現学習を行うFLAMBEを開発した。
論文 参考訳(メタデータ) (2020-06-18T19:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。