論文の概要: A quantum semantic framework for natural language processing
- arxiv url: http://arxiv.org/abs/2506.10077v1
- Date: Wed, 11 Jun 2025 18:00:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.372169
- Title: A quantum semantic framework for natural language processing
- Title(参考訳): 自然言語処理のための量子意味論フレームワーク
- Authors: Christopher J. Agostino, Quan Le Thien, Molly Apsel, Denizhan Pak, Elina Lesyk, Ashabari Majumdar,
- Abstract要約: 表現の複雑さが増大するにつれて、単一の意図する意味を回復する解釈エージェントが消滅する可能性について論じる。
この計算の難しさは、言語形式が意味を持ち、それ自体に欠陥があるという古典的な見解を示唆している。
あいまいさによる言語解釈は,非古典的文脈性を示すことができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic degeneracy represents a fundamental property of natural language that extends beyond simple polysemy to encompass the combinatorial explosion of potential interpretations that emerges as semantic expressions increase in complexity. Large Language Models (LLMs) and other modern NLP systems face inherent limitations precisely because they operate within natural language itself, making them subject to the same interpretive constraints imposed by semantic degeneracy. In this work, we argue using Kolmogorov complexity that as an expression's complexity grows, the likelihood of any interpreting agent (human or LLM-powered AI) recovering the single intended meaning vanishes. This computational intractability suggests the classical view that linguistic forms possess meaning in and of themselves is flawed. We alternatively posit that meaning is instead actualized through an observer-dependent interpretive act. To test this, we conducted a semantic Bell inequality test using diverse LLM agents as ``computational cognitive systems'' to interpret ambiguous word pairs under varied contextual settings. Across several independent experiments, we found average CHSH expectation values ranging from 1.2 to 2.8, with several runs yielding values (e.g., 2.3-2.4) that significantly violate the classical boundary ($|S|\leq2$). This demonstrates that linguistic interpretation under ambiguity can exhibit non-classical contextuality, consistent with results from human cognition experiments. These results inherently imply that classical frequentist-based analytical approaches for natural language are necessarily lossy. Instead, we propose that Bayesian-style repeated sampling approaches can provide more practically useful and appropriate characterizations of linguistic meaning in context.
- Abstract(参考訳): セマンティック・デジェネシー(Semantic degeneracy)は、意味表現が複雑さを増すにつれて出現する潜在的な解釈の組合せ的爆発を包含する単純なポリセミーを超えて、自然言語の基本的な性質を表す。
大規模言語モデル(LLM)や他の現代のNLPシステムは、自然言語自体で機能するため、固有の制約に直面しており、セマンティック・デジェネリズムによって課されるのと同じ解釈的制約を受ける。
この研究では、コルモゴロフ複雑性を用いることで、表現の複雑さが増大するにつれて、解釈エージェント(人間またはLLM駆動AI)が1つの意図する意味を回復する可能性について論じる。
この計算の難しさは、言語形式が意味を持ち、それ自体に欠陥があるという古典的な見解を示唆している。
代わりに、その意味は観察者に依存した解釈行為によって実現されると仮定する。
これをテストするために,多種多様なLLMエージェントを「計算認知システム」として意味的ベル不等式テストを行い,文脈によって不明瞭な単語対を解釈した。
いくつかの独立した実験で、平均CHSH期待値は1.2から2.8の範囲で、古典的境界(|S|\leq2$)を著しく破るいくつかの値(例:2.3-2.4)が得られた。
このことは、曖昧さの下での言語解釈が、人間の認知実験の結果と一致して、非古典的な文脈性を示すことを示している。
これらの結果は、古典的頻繁主義に基づく自然言語の分析的アプローチが必ずしも損なわれていることを本質的に示唆している。
その代わり,ベイズ方式の反復サンプリング手法により,文脈における言語的意味のより実用的で適切な特徴付けが可能であることを提案する。
関連論文リスト
- Ensemble Kalman filter for uncertainty in human language comprehension [39.781091151259766]
文理解のためのベイズ的枠組みを提案し,不確実性を定量化するためにアンサンブルカルマンフィルタ(EnKF)の拡張を適用した。
ベイジアン逆問題として言語理解をフレーミングすることにより、不確実性の表現に関して人文処理を反映するSGモデルの能力を向上する。
論文 参考訳(メタデータ) (2025-05-05T11:56:12Z) - Investigating Idiomaticity in Word Representations [9.208145117062339]
我々は2つの言語(英語とポルトガル語)における様々な水準の慣用性を持つ名詞に焦点をあてる。
そこで本研究では,各名詞の音韻性判定を含む最小対のデータセットについて,タイプレベルとトークンレベルの両方で示す。
AffinityとScaled similarityの詳細なメトリクスセットを定義し、モデルが慣用性の変化につながる可能性のある摂動に対してどれほど敏感であるかを判断する。
論文 参考訳(メタデータ) (2024-11-04T21:05:01Z) - Scope Ambiguities in Large Language Models [29.427341094882966]
自己回帰言語モデルの異なるバージョンがスコープ不明瞭な文をどのように扱うかを検討する。
我々は,約1000のユニークなスコープあいまいな文を含む新しいデータセットを提案する。
これらのデータセットを用いて、これらの文における曖昧さの意味にいくつかのモデルが敏感であることを示す。
論文 参考訳(メタデータ) (2024-04-05T18:01:02Z) - Large Language Models Are Partially Primed in Pronoun Interpretation [6.024776891570197]
大規模言語モデル (LLM) は, 刺激や実際の心理言語実験の手順を用いて, 人間のような参照バイアスを呈するかどうかを検討する。
最近の精神言語学的研究は、人間が参照パターンに最近露出することで参照バイアスに適応することを示唆している。
InstructGPTは,局所談話における参照パターンの頻度に応じて,その韻律的解釈に適応することがわかった。
論文 参考訳(メタデータ) (2023-05-26T13:30:48Z) - Evaluating statistical language models as pragmatic reasoners [39.72348730045737]
我々は,語学的な発話の意味を推測するために,大規模言語モデルの能力を評価する。
LLMは、複数の複雑な実用的発話の解釈に対して、文脈的、人間的な分布を導出することができる。
結果は,統計的言語モデルの推論能力と,実践的・意味論的解析への応用について報告する。
論文 参考訳(メタデータ) (2023-05-01T18:22:10Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。