論文の概要: Context-theoretic Semantics for Natural Language: an Algebraic Framework
- arxiv url: http://arxiv.org/abs/2009.10542v1
- Date: Tue, 22 Sep 2020 13:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 22:24:35.679067
- Title: Context-theoretic Semantics for Natural Language: an Algebraic Framework
- Title(参考訳): 自然言語の文脈論的意味論:代数的枠組み
- Authors: Daoud Clarke
- Abstract要約: 本稿では,単語,句,文がすべてベクトルとして表現される自然言語意味論の枠組みを提案する。
単語のベクトル表現は、体上の代数の要素とみなすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Techniques in which words are represented as vectors have proved useful in
many applications in computational linguistics, however there is currently no
general semantic formalism for representing meaning in terms of vectors. We
present a framework for natural language semantics in which words, phrases and
sentences are all represented as vectors, based on a theoretical analysis which
assumes that meaning is determined by context.
In the theoretical analysis, we define a corpus model as a mathematical
abstraction of a text corpus. The meaning of a string of words is assumed to be
a vector representing the contexts it occurs in in the corpus model. Based on
this assumption, we can show that the vector representations of words can be
considered as elements of an algebra over a field. We note that in applications
of vector spaces to representing meanings of words there is an underlying
lattice structure; we interpret the partial ordering of the lattice as
describing entailment between meanings. We also define the context-theoretic
probability of a string, and, based on this and the lattice structure, a degree
of entailment between strings.
Together these properties form guidelines as to how to construct semantic
representations within the framework. A context theory is an implementation of
the framework; in an implementation strings are represented as vectors with the
properties deduced from the theoretical analysis.
We show how to incorporate logical semantics into context theories; this
enables us to represent statistical information about uncertainty by taking
weighted sums of individual representations. We also use the framework to
analyse approaches to the task of recognising textual entailment, to
ontological representations of meaning and to representing syntactic structure.
For the latter, we give new algebraic descriptions of link grammar.
- Abstract(参考訳): 単語をベクトルとして表現する手法は、計算言語学において多くの応用で有用であることが証明されているが、現在ではベクトルの意味での意味を表現する一般的な意味論的形式は存在しない。
本稿では,言葉,句,文がすべてベクトルとして表現される自然言語意味論の枠組みについて,文脈によって意味が決定されることを前提とした理論的分析を行った。
理論的解析では,テキストコーパスの数学的抽象化としてコーパスモデルを定義する。
単語列の意味は、コーパスモデルで発生する文脈を表すベクトルであると仮定される。
この仮定に基づいて、単語のベクトル表現を体上の代数の元と考えることができることを示すことができる。
単語の意味を表現するベクトル空間の応用には、下層の格子構造があり、格子の部分的な順序付けは意味間の関係を記述するものとして解釈する。
また、文字列の文脈論的確率を定義し、この構造と格子構造に基づいて、文字列間の重み付けの度合を定義する。
これらのプロパティは、フレームワーク内でセマンティック表現を構築する方法に関するガイドラインを形成する。
文脈理論はフレームワークの実装であり、実装文字列は理論解析から導出される特性を持つベクトルとして表現される。
これにより、個々の表現の重み付け和を取ることにより、不確実性に関する統計的情報を表現することができる。
また,本フレームワークは,意味のオントロジ的表現や統語的構造を表現するために,テキストの意味認識タスクに対するアプローチの分析にも使用される。
後者については、リンク文法の新しい代数的記述を与える。
関連論文リスト
- A Complexity-Based Theory of Compositionality [53.025566128892066]
AIでは、構成表現は配布外一般化の強力な形式を可能にすることができる。
ここでは、構成性に関する直観を考慮し、拡張する構成性の公式な定義を提案する。
この定義は概念的には単純で量的であり、アルゴリズム情報理論に基礎を置いており、あらゆる表現に適用できる。
論文 参考訳(メタデータ) (2024-10-18T18:37:27Z) - Neural Semantic Parsing with Extremely Rich Symbolic Meaning Representations [7.774674200374255]
分類学的階層におけるその位置に基づく概念のための新しい構成記号表現を導入する。
この表現はよりリッチな意味情報を提供し、解釈可能性を高める。
実験結果から,より豊かで複雑な意味表現に基づいて訓練された分類モデルは,評価基準を用いて従来のモデルに若干従属するが,語彙外概念を扱う場合よりも優れることがわかった。
論文 参考訳(メタデータ) (2024-04-19T08:06:01Z) - An Encoding of Abstract Dialectical Frameworks into Higher-Order Logic [57.24311218570012]
このアプローチは抽象弁証法フレームワークのコンピュータ支援分析を可能にする。
応用例としては、メタ理論的性質の形式的解析と検証がある。
論文 参考訳(メタデータ) (2023-12-08T09:32:26Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [110.00434385712786]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - Tsetlin Machine Embedding: Representing Words Using Logical Expressions [10.825099126920028]
本稿では,論理節を自己教師する自動エンコーダについて紹介する。
節は、"black"、"cup"、"hot"のような文脈的な単語からなり、"coffee"のような他の単語を定義する。
我々は,GLoVeを6つの分類タスクで上回り,いくつかの内在的および外在的ベンチマークに対する埋め込み手法の評価を行った。
論文 参考訳(メタデータ) (2023-01-02T15:02:45Z) - PropSegmEnt: A Large-Scale Corpus for Proposition-Level Segmentation and
Entailment Recognition [63.51569687229681]
文中の各命題の文的含意関係を個別に認識する必要性について論じる。
提案するPropSegmEntは45K以上の提案のコーパスであり, 専門家によるアノテートを行う。
我々のデータセット構造は、(1)文書内の文章を命題の集合に分割し、(2)異なるが、トポジカルに整合した文書に対して、各命題の含意関係を分類するタスクに類似している。
論文 参考訳(メタデータ) (2022-12-21T04:03:33Z) - An Informational Space Based Semantic Analysis for Scientific Texts [62.997667081978825]
本稿では、意味分析のための計算手法と、短い科学的テキストの意味の定量化について紹介する。
科学的意味の表現は、心理的特性ではなく、状況表現を置き換えることで標準化される。
本研究は,テキストの意味の幾何学的表現の基礎となる研究である。
論文 参考訳(メタデータ) (2022-05-31T11:19:32Z) - Plurality and Quantification in Graph Representation of Meaning [4.82512586077023]
我々のグラフ言語は、モナディックな2階変数のみを用いた自然言語意味論の本質を網羅している。
単純な構文意味インタフェースで意味グラフを構築するための統一型機構を提案する。
現在のグラフ形式は、分配的述語、カテゴリー横断接続、および量化表現のスコープ置換における言語問題に適用される。
論文 参考訳(メタデータ) (2021-12-13T07:04:41Z) - Verb Sense Clustering using Contextualized Word Representations for
Semantic Frame Induction [9.93359829907774]
文脈化された単語表現は、様々な自然言語処理タスクに有用であることが証明されている。
本稿では,文脈によって異なるフレームを誘発する動詞に着目した。
我々は,同じ動詞が発声するフレームの違いを,文脈化された単語表現がいかによく認識できるかを検討する。
論文 参考訳(メタデータ) (2021-05-27T21:53:40Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。