論文の概要: Semantic Wave Functions: Exploring Meaning in Large Language Models Through Quantum Formalism
- arxiv url: http://arxiv.org/abs/2503.10664v1
- Date: Sun, 09 Mar 2025 08:23:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-23 06:38:29.459584
- Title: Semantic Wave Functions: Exploring Meaning in Large Language Models Through Quantum Formalism
- Title(参考訳): 意味的波動関数:量子形式主義による大規模言語モデルにおける意味探索
- Authors: Timo Aukusti Laine,
- Abstract要約: 大規模言語モデル(LLM)は、高次元ベクトル埋め込みにおける意味関係を符号化する。
本稿では,LLM埋め込み空間と量子力学の類似性について検討する。
この量子派生表現を形式化する「意味的波動関数」を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large Language Models (LLMs) encode semantic relationships in high-dimensional vector embeddings. This paper explores the analogy between LLM embedding spaces and quantum mechanics, positing that LLMs operate within a quantized semantic space where words and phrases behave as quantum states. To capture nuanced semantic interference effects, we extend the standard real-valued embedding space to the complex domain, drawing parallels to the double-slit experiment. We introduce a "semantic wave function" to formalize this quantum-derived representation and utilize potential landscapes, such as the double-well potential, to model semantic ambiguity. Furthermore, we propose a complex-valued similarity measure that incorporates both magnitude and phase information, enabling a more sensitive comparison of semantic representations. We develop a path integral formalism, based on a nonlinear Schr\"odinger equation with a gauge field and Mexican hat potential, to model the dynamic evolution of LLM behavior. This interdisciplinary approach offers a new theoretical framework for understanding and potentially manipulating LLMs, with the goal of advancing both artificial and natural language understanding.
- Abstract(参考訳): 大規模言語モデル(LLM)は、高次元ベクトル埋め込みにおける意味関係を符号化する。
本稿では,LLMの埋め込み空間と量子力学の類似性を考察し,LLMが量子状態として振る舞う量子化された意味空間内で機能することを示す。
ニュアンス付きセマンティック干渉効果を捉えるため、標準的な実数値埋め込み空間を複素領域に拡張し、二重スリット実験と平行に描画する。
この量子から導かれる表現を形式化し、二重井戸ポテンシャルのような潜在的景観を利用して意味的曖昧さをモデル化する「意味的波動関数」を導入する。
さらに,重大情報と位相情報の両方を組み込んだ複素値類似度尺度を提案し,意味表現のより敏感な比較を可能にする。
我々は、ゲージ場とメキシコのハットポテンシャルを持つ非線形シュリンガー方程式に基づいて、LLMの挙動の動的進化をモデル化する経路積分形式論を開発する。
この学際的アプローチは、LLMの理解と潜在的操作のための新しい理論的枠組みを提供し、人工言語と自然言語の両方の理解を促進することを目的としている。
関連論文リスト
- LF-Steering: Latent Feature Activation Steering for Enhancing Semantic Consistency in Large Language Models [16.37602070339033]
LLM(Large Language Models)は、意味的に等価なパラフレーズ入力によって、しばしば一貫性のない応答を生成する。
セマンティック不整合の原因となる潜在特徴表現を正確に識別する新しいアクティベーションステアリング手法LF-ステアリングを提案する。
本手法は, 関連トランス層の隠蔽状態をスパースオートエンコーダに基づいて, 疎活性化された高次元特徴空間にマッピングする。
論文 参考訳(メタデータ) (2025-01-19T13:06:51Z) - Provably Transformers Harness Multi-Concept Word Semantics for Efficient In-Context Learning [53.685764040547625]
トランスフォーマーベースの大規模言語モデル(LLM)は、卓越した創造力と出現能力を示している。
この研究は、トランスフォーマーが単語のマルチコンセプトセマンティクスをどのように活用し、強力なICLと優れたアウト・オブ・ディストリビューションICL能力を実現するかを示すための数学的解析を提供する。
論文 参考訳(メタデータ) (2024-11-04T15:54:32Z) - Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Large Language Models as Markov Chains [7.078696932669912]
有限状態空間上で定義された自己回帰変換言語モデルとマルコフ連鎖の同値性を描く。
以上の結果とLLMで観察された病理行動との関連性を検討した。
最新のLlamaとGemmaのモデル群による実験は、我々の理論が実際にそれらの振る舞いを正しく捉えていることを示している。
論文 参考訳(メタデータ) (2024-10-03T17:45:31Z) - Aligned at the Start: Conceptual Groupings in LLM Embeddings [10.282327560070202]
本稿では、しばしば見落とされがちな入力埋め込み(初期表現をトランスフォーマーブロックに入力する)に焦点を移す。
ファジィグラフ,k-nearest neighbor(k-NN),およびコミュニティ検出を用いて,多様なLDMの埋め込みを解析した。
論文 参考訳(メタデータ) (2024-06-08T01:27:19Z) - Quantifying Semantic Emergence in Language Models [31.608080868988825]
大規模言語モデル (LLM) は意味論的意味を捉える特別な能力として広く認識されている。
本研究では,入力トークンから意味を抽出するLLMの能力を測定するために,量的指標である情報創発(IE)を導入する。
論文 参考訳(メタデータ) (2024-05-21T09:12:20Z) - Characterizing Truthfulness in Large Language Model Generations with
Local Intrinsic Dimension [63.330262740414646]
大規模言語モデル(LLM)から生成されたテキストの真偽を特徴付ける方法と予測法について検討する。
モデルアクティベーションの局所固有次元 (LID) を用いて, 内部アクティベーションを調査し, LLMの真偽を定量化する。
論文 参考訳(メタデータ) (2024-02-28T04:56:21Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Guiding the PLMs with Semantic Anchors as Intermediate Supervision:
Towards Interpretable Semantic Parsing [57.11806632758607]
本稿では,既存の事前学習言語モデルを階層型デコーダネットワークに組み込むことを提案する。
第一原理構造をセマンティックアンカーとすることで、2つの新しい中間管理タスクを提案する。
いくつかのセマンティック解析ベンチマークで集中的な実験を行い、我々のアプローチがベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T07:27:29Z) - Method of spectral Green functions in driven open quantum dynamics [77.34726150561087]
オープン量子力学のシミュレーションのために,スペクトルグリーン関数に基づく新しい手法を提案する。
この形式主義は、場の量子論におけるグリーン関数の使用と顕著な類似性を示している。
本手法は,完全マスター方程式の解法に基づくシミュレーションと比較して計算コストを劇的に削減する。
論文 参考訳(メタデータ) (2020-06-04T09:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。