論文の概要: Distributional Formal Semantics
- arxiv url: http://arxiv.org/abs/2103.01713v1
- Date: Tue, 2 Mar 2021 13:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:21:10.570237
- Title: Distributional Formal Semantics
- Title(参考訳): 分布形式意味論
- Authors: Noortje J. Venhuizen and Petra Hendriks and Matthew W. Crocker and
Harm Brouwer
- Abstract要約: 形式モデルレベルでの形式的意味論システムへの分布性を統合する分布形式的セマンティクスを提案する。
このアプローチは、本質的に構成的である確率的で分散的な意味表現を提供する。
これらの表現が確率的推論を可能にする方法と、「情報」の情報理論的概念がそれから自然に従う方法を示す。
- 参考スコア(独自算出の注目度): 0.18352113484137625
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Natural language semantics has recently sought to combine the complementary
strengths of formal and distributional approaches to meaning. More
specifically, proposals have been put forward to augment formal semantic
machinery with distributional meaning representations, thereby introducing the
notion of semantic similarity into formal semantics, or to define
distributional systems that aim to incorporate formal notions such as
entailment and compositionality. However, given the fundamentally different
'representational currency' underlying formal and distributional approaches -
models of the world versus linguistic co-occurrence - their unification has
proven extremely difficult. Here, we define a Distributional Formal Semantics
that integrates distributionality into a formal semantic system on the level of
formal models. This approach offers probabilistic, distributed meaning
representations that are also inherently compositional, and that naturally
capture fundamental semantic notions such as quantification and entailment.
Furthermore, we show how the probabilistic nature of these representations
allows for probabilistic inference, and how the information-theoretic notion of
"information" (measured in terms of Entropy and Surprisal) naturally follows
from it. Finally, we illustrate how meaning representations can be derived
incrementally from linguistic input using a recurrent neural network model, and
how the resultant incremental semantic construction procedure intuitively
captures key semantic phenomena, including negation, presupposition, and
anaphoricity.
- Abstract(参考訳): 自然言語のセマンティクスは最近、形式的アプローチと分布的アプローチの補完的な強みを意味に組み合わせようとしている。
より具体的には、形式的意味表現による形式的意味機械の強化、形式的意味論への意味的類似性の概念の導入、あるいは包含や構成性といった形式的概念を組み入れることを目的とした分布システムの定義が提案されている。
しかし、世界の形式的および分布的アプローチモデルと言語的共起の基本的な「表現的通貨」を考えると、その統一は非常に困難であることが証明されている。
ここでは,形式モデルのレベルでの形式的意味体系に分布性を統合する分布形式意味論を定義する。
このアプローチは、本質的にも構成的である確率的で分散的な意味表現を提供し、量化や関係性といった基本的な意味概念を自然に捉える。
さらに,これらの表現の確率論的性質が確率的推論を可能にし,情報理論的な「情報」概念(エントロピーと超越性の観点から測定)がいかに自然にそれに従うかを示す。
最後に, 再帰的ニューラルネットワークモデルを用いて, 言語入力から意味表現を漸進的に導出する方法と, 帰納法, 前置法, 照応性といった重要な意味的現象を直感的に捉えた帰納的意味構築手法について述べる。
関連論文リスト
- A Complexity-Based Theory of Compositionality [53.025566128892066]
AIでは、構成表現は配布外一般化の強力な形式を可能にすることができる。
ここでは、構成性に関する直観を考慮し、拡張する構成性の公式な定義を提案する。
この定義は概念的には単純で量的であり、アルゴリズム情報理論に基礎を置いており、あらゆる表現に適用できる。
論文 参考訳(メタデータ) (2024-10-18T18:37:27Z) - Learning Visual-Semantic Subspace Representations for Propositional Reasoning [49.17165360280794]
本稿では,特定の意味構造に適合する視覚表現を学習するための新しい手法を提案する。
我々のアプローチは、新しい核規範に基づく損失に基づいている。
部分空間格子におけるセマンティクスのスペクトル幾何学を最小エンコードしていることを示す。
論文 参考訳(メタデータ) (2024-05-25T12:51:38Z) - A Note on an Inferentialist Approach to Resource Semantics [48.65926948745294]
「推論主義」とは、推論行動の観点で意味が与えられるという考え方である。
本稿では,「推論主義」が資源意味論の汎用的で表現力豊かな枠組みを実現する方法を示す。
論文 参考訳(メタデータ) (2024-05-10T14:13:21Z) - Grounded learning for compositional vector semantics [1.4344589271451351]
本研究では、スパイクニューラルネットワークアーキテクチャ内で構成分布意味論を実装する方法を提案する。
また,ラベル付き画像を用いて単語表現を訓練する手法についても述べる。
論文 参考訳(メタデータ) (2024-01-10T22:12:34Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - Multi-Relational Hyperbolic Word Embeddings from Natural Language
Definitions [5.763375492057694]
本稿では、そのような構造を明示的に活用し、定義から単語埋め込みを導出するマルチリレーショナルモデルを提案する。
経験的な分析は、フレームワークが望ましい構造的制約を課すのに役立つことを示している。
実験により、ユークリッド語よりもハイパーボリック語の埋め込みの方が優れていることが示された。
論文 参考訳(メタデータ) (2023-05-12T08:16:06Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Testing Pre-trained Language Models' Understanding of Distributivity via
Causal Mediation Analysis [13.07356367140208]
自然言語推論のための新しい診断データセットであるDistNLIを紹介する。
モデルの理解の範囲は、モデルのサイズと語彙のサイズと関連していることがわかった。
論文 参考訳(メタデータ) (2022-09-11T00:33:28Z) - Plurality and Quantification in Graph Representation of Meaning [4.82512586077023]
我々のグラフ言語は、モナディックな2階変数のみを用いた自然言語意味論の本質を網羅している。
単純な構文意味インタフェースで意味グラフを構築するための統一型機構を提案する。
現在のグラフ形式は、分配的述語、カテゴリー横断接続、および量化表現のスコープ置換における言語問題に適用される。
論文 参考訳(メタデータ) (2021-12-13T07:04:41Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。