論文の概要: Linguists Who Use Probabilistic Models Love Them: Quantification in
Functional Distributional Semantics
- arxiv url: http://arxiv.org/abs/2006.03002v1
- Date: Thu, 4 Jun 2020 16:48:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 10:01:23.509441
- Title: Linguists Who Use Probabilistic Models Love Them: Quantification in
Functional Distributional Semantics
- Title(参考訳): 確率的モデルを好む言語学者:関数型分布意味論の定量化
- Authors: Guy Emerson
- Abstract要約: 厳密な量化器を曖昧な述語で用いた場合、以前の定式化が自明な真理値を与えることを示す。
本稿では,不明瞭な述語を正確な述語に対する分布として扱うことにより,この問題を回避するために,改良された説明法を提案する。
汎用量化器は, 精度の高い量化器よりも実用的に複雑であり, 計算的にもシンプルである。
- 参考スコア(独自算出の注目度): 12.640283469603355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Functional Distributional Semantics provides a computationally tractable
framework for learning truth-conditional semantics from a corpus. Previous work
in this framework has provided a probabilistic version of first-order logic,
recasting quantification as Bayesian inference. In this paper, I show how the
previous formulation gives trivial truth values when a precise quantifier is
used with vague predicates. I propose an improved account, avoiding this
problem by treating a vague predicate as a distribution over precise
predicates. I connect this account to recent work in the Rational Speech Acts
framework on modelling generic quantification, and I extend this to modelling
donkey sentences. Finally, I explain how the generic quantifier can be both
pragmatically complex and yet computationally simpler than precise quantifiers.
- Abstract(参考訳): 関数分布セマンティクスは、コーパスから真理条件セマンティクスを学ぶための計算可能なフレームワークを提供する。
このフレームワークの以前の仕事は、一階述語論理の確率的バージョンを提供し、ベイズ推論として量子化を再キャストした。
本稿では,前回の定式化が,曖昧な述語で正確な量化器を用いた場合の自明な真理値を与える方法を示す。
そこで本稿では,不明瞭な述語を正確な述語上の分布として扱うことにより,この問題を回避した。
この説明を、一般的な定量化をモデル化するRational Speech Actsフレームワークの最近の研究と結びつけ、ロバ文のモデル化に拡張します。
最後に, 一般量化器は実用的複雑かつ計算上, 正確な量化器よりもシンプルであることを示す。
関連論文リスト
- Are LLMs Models of Distributional Semantics? A Case Study on Quantifiers [14.797001158310092]
分布意味論モデルは真理条件推論や記号処理に苦しむ。
期待とは対照的に、LSMは正確な量化器とあいまいな量化器の人間の判断とより密接に一致している。
論文 参考訳(メタデータ) (2024-10-17T19:28:35Z) - The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Pragmatic Reasoning Unlocks Quantifier Semantics for Foundation Models [22.757306452760112]
百科事典の百科事典では,人称注釈付き一般化量化器のクラウドソーシングデータセットQuReを紹介した。
自然言語推論とRational Speech Actsフレームワークを組み合わせたフレームワークであるPreSQUEを用いて,言語モデルにおける量化器の理解について検討する。
論文 参考訳(メタデータ) (2023-11-08T13:00:06Z) - A Measure-Theoretic Characterization of Tight Language Models [105.16477132329416]
病理学的には「確率質量」が無限列の集合に漏れることがある。
本稿では,言語モデリングの尺度論的扱いについて述べる。
多くのポピュラーな言語モデルファミリーが実際に密接な関係にあることを証明しています。
論文 参考訳(メタデータ) (2022-12-20T18:17:11Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Adaptive n-ary Activation Functions for Probabilistic Boolean Logic [2.294014185517203]
マッチングやアリティ向上の活性化関数を用いて,任意の論理を単一層で学習できることが示される。
我々は,非ゼロパラメータの数を信念関数の有効アリティに直接関連付ける基礎を用いて,信念表を表現する。
これにより、パラメータの間隔を誘導することで論理的複雑性を低減する最適化アプローチが開かれる。
論文 参考訳(メタデータ) (2022-03-16T22:47:53Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - Rationales for Sequential Predictions [117.93025782838123]
シーケンスモデルは現代のNLPシステムにおいて重要な要素であるが、それらの予測は説明が難しい。
モデル説明は有理だが、個々のモデル予測を説明できる文脈のサブセットを考える。
この目的を近似する効率的なグリードアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-14T01:25:15Z) - A Conditional Splitting Framework for Efficient Constituency Parsing [14.548146390081778]
本稿では,選択性解析問題(シンタクティックおよび談話構文解析)を一連の条件分割決定に当てはめる,汎用的なSeq2seq解析フレームワークを提案する。
解析モデルでは,テキストスパンで可能な分割点の条件付き確率分布を推定し,効率的なトップダウンデコーディングをサポートする。
談話分析では, 談話セグメンテーションを解析の特別な事例として扱うことができる。
論文 参考訳(メタデータ) (2021-06-30T00:36:34Z) - Learning Probabilistic Sentence Representations from Paraphrases [47.528336088976744]
文の分布を生成する確率モデルを定義する。
パラフレーズでモデルをトレーニングし、それらが自然に文の特異性を捉えていることを示す。
本モデルでは,各単語の明瞭度と正確度を抽出する手法を提案する。
論文 参考訳(メタデータ) (2020-05-16T21:10:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。