論文の概要: Language as Mathematical Structure: Examining Semantic Field Theory Against Language Games
- arxiv url: http://arxiv.org/abs/2601.00448v1
- Date: Thu, 01 Jan 2026 19:15:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.451977
- Title: Language as Mathematical Structure: Examining Semantic Field Theory Against Language Games
- Title(参考訳): 数学的構造としての言語:言語ゲームに対するセマンティックフィールド理論の検討
- Authors: Dimitris Vartziotis,
- Abstract要約: 大規模言語モデル(LLM)は、長年の言語的意味の理論を検証可能な、新しい経験的環境を提供する。
我々は、語彙場(Lexfelder)と言語場(Lingofelder)の概念を連続的な意味空間における相互作用構造として定式化する。
意味的規則性を捉える上でのLLMの成功は、言語が基礎となる数学的構造を示すという見方を支持すると論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) offer a new empirical setting in which long-standing theories of linguistic meaning can be examined. This paper contrasts two broad approaches: social constructivist accounts associated with language games, and a mathematically oriented framework we call Semantic Field Theory. Building on earlier work by the author, we formalize the notions of lexical fields (Lexfelder) and linguistic fields (Lingofelder) as interacting structures in a continuous semantic space. We then analyze how core properties of transformer architectures-such as distributed representations, attention mechanisms, and geometric regularities in embedding spaces-relate to these concepts. We argue that the success of LLMs in capturing semantic regularities supports the view that language exhibits an underlying mathematical structure, while their persistent limitations in pragmatic reasoning and context sensitivity are consistent with the importance of social grounding emphasized in philosophical accounts of language use. On this basis, we suggest that mathematical structure and language games can be understood as complementary rather than competing perspectives. The resulting framework clarifies the scope and limits of purely statistical models of language and motivates new directions for theoretically informed AI architectures.
- Abstract(参考訳): 大規模言語モデル(LLM)は、長年の言語的意味の理論を検証可能な、新しい経験的環境を提供する。
本稿では、言語ゲームに関連するソーシャルコンストラクティビズムアカウントと、セマンティックフィールド理論と呼ばれる数学的指向のフレームワークの2つの幅広いアプローチを対比する。
著者による初期の研究に基づいて、連続的な意味空間における相互作用構造として語彙場(Lexfelder)と言語場(Lingofelder)の概念を定式化する。
次に, 組込み空間における分散表現, 注意機構, 幾何学的正則性など, トランスフォーマーアーキテクチャのコア特性がこれらの概念とどのように関連しているかを解析する。
意味的規則性の獲得におけるLLMの成功は、言語が基礎となる数学的構造を示すという見解を支持する一方で、実践的推論と文脈感受性の持続的な制限は、哲学的な言語利用の説明において強調される社会的基盤の重要性と一致している、と我々は論じる。
そこで本研究では, 数学的構造と言語ゲームが, 競合する視点よりも補完的なものとして理解できることを示唆する。
結果として得られたフレームワークは、純粋に統計的な言語モデルの範囲と限界を明確にし、理論的に情報を得たAIアーキテクチャの新しい方向性を動機付けている。
関連論文リスト
- A Formal Framework for the Definition of 'State': Hierarchical Representation and Meta-Universe Interpretation [0.0]
本研究では「状態」の概念のための数学的に厳密で統一された形式構造を導入する。
まず、状態深さと写像階層の2つの軸からなる「階層的状態格子」を提案し、数学的、物理的、言語的領域にまたがる統一的な表記体系を提案する。
論文 参考訳(メタデータ) (2025-07-14T11:37:35Z) - Neurosymbolic Graph Enrichment for Grounded World Models [47.92947508449361]
複雑な問題に対処するために, LLM の反応性を向上し, 活用するための新しいアプローチを提案する。
我々は,大規模言語モデルの強みと構造的意味表現を組み合わせた,多モーダルで知識を付加した意味の形式表現を作成する。
非構造化言語モデルと形式的意味構造とのギャップを埋めることで、自然言語理解と推論における複雑な問題に対処するための新たな道を開く。
論文 参考訳(メタデータ) (2024-11-19T17:23:55Z) - The Problem of Alignment [1.2277343096128712]
大規模言語モデルは、大きなコーパスから統計的パターンとして学習されたシーケンスを生成する。
最初のトレーニングモデルが人間の価値観と一致しなくてはならない場合、他のモデルよりも一定の継続が望ましい。
ユーザとモデル間の双方向インタラクションとして,この構造化の実践について検討する。
論文 参考訳(メタデータ) (2023-12-30T11:44:59Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Variational Cross-Graph Reasoning and Adaptive Structured Semantics
Learning for Compositional Temporal Grounding [143.5927158318524]
テンポラルグラウンドティング(Temporal grounding)とは、クエリ文に従って、未編集のビデオから特定のセグメントを特定するタスクである。
新たに構成時間グラウンドタスクを導入し,2つの新しいデータセット分割を構築した。
ビデオや言語に内在する構造的意味論は、構成的一般化を実現する上で重要な要素である、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-22T08:02:23Z) - Modelling Compositionality and Structure Dependence in Natural Language [0.12183405753834563]
言語学と集合論に基づいて、これらの概念の形式化がこの論文の前半で述べられている。
言語処理を行う認知システムは,特定の機能的制約を持つ必要がある。
単語埋め込み技術の進歩を利用して、関係学習のモデルがシミュレートされる。
論文 参考訳(メタデータ) (2020-11-22T17:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。