論文の概要: Awareness Logic: Kripke Lattices as a Middle Ground between Syntactic
and Semantic Models
- arxiv url: http://arxiv.org/abs/2106.12868v1
- Date: Thu, 24 Jun 2021 10:04:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-26 01:47:35.371427
- Title: Awareness Logic: Kripke Lattices as a Middle Ground between Syntactic
and Semantic Models
- Title(参考訳): Awareness Logic: 構文モデルと意味モデルの間の中間グラウンドとしてのKripke Lattices
- Authors: Gaia Belardinelli and Rasmus K. Rendsvig
- Abstract要約: 我々は原子サブセット包含によって誘導されるクリプキモデルの格子を提供し、不確かさと不明瞭さを分離する。
明示的な知識のための言語の公式の満足度を保った変換を定義することにより,HMSモデルとFHモデルの両方に等価なモデルを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The literature on awareness modeling includes both syntax-free and
syntax-based frameworks. Heifetz, Meier \& Schipper (HMS) propose a lattice
model of awareness that is syntax-free. While their lattice approach is elegant
and intuitive, it precludes the simple option of relying on formal language to
induce lattices, and does not explicitly distinguish uncertainty from
unawareness. Contra this, the most prominent syntax-based solution, the
Fagin-Halpern (FH) model, accounts for this distinction and offers a simple
representation of awareness, but lacks the intuitiveness of the lattice
structure. Here, we combine these two approaches by providing a lattice of
Kripke models, induced by atom subset inclusion, in which uncertainty and
unawareness are separate. We show our model equivalent to both HMS and FH
models by defining transformations between them which preserve satisfaction of
formulas of a language for explicit knowledge, and obtain completeness through
our and HMS' results. Lastly, we prove that the Kripke lattice model can be
shown equivalent to the FH model (when awareness is propositionally determined)
also with respect to the language of the Logic of General Awareness, for which
the FH model where originally proposed.
- Abstract(参考訳): アウェアネスモデリングに関する文献には、構文フリーと構文ベースの両方のフレームワークが含まれている。
Heifetz, Meier \& Schipper (HMS) は構文のない認識の格子モデルを提案する。
格子のアプローチはエレガントで直感的であるが、形式言語に依存して格子を誘導する単純な選択肢を妨げ、不確かさと無知を明示的に区別しない。
これとは対照的に、最も顕著な構文ベースのソリューションであるFagin-Halpern (FH) モデルは、この区別を考慮し、単純な認識表現を提供するが、格子構造の直感性を欠いている。
ここでは、不確かさと不明瞭さを分離する原子サブセット包含によって誘導されるクリプキモデルの格子を提供することにより、これらの2つのアプローチを組み合わせる。
本モデルでは,明示的な知識のための言語公式の満足度を保つ変換を定義することで,hms と fh モデルに等価なモデルを示し,hms の結果を通じて完全性を得る。
最後に, Kripke 格子モデルが FH モデルと等価であることを示すとともに,FH モデルが最初に提案された一般認識の論理の言語についても検討する。
関連論文リスト
- On the Origins of Linear Representations in Large Language Models [51.88404605700344]
我々は,次のトークン予測の概念力学を定式化するために,単純な潜在変数モデルを導入する。
実験により、潜在変数モデルと一致するデータから学習すると線形表現が現れることが示された。
また、LLaMA-2大言語モデルを用いて、理論のいくつかの予測を検証した。
論文 参考訳(メタデータ) (2024-03-06T17:17:36Z) - Semantic Sensitivities and Inconsistent Predictions: Measuring the
Fragility of NLI Models [44.56781176879151]
State-of-the-art Natural Language Inference (NLI)モデルは、表面形状の変化を保存するマイナーセマンティクスに敏感である。
セマンティックな感度は、平均$textbfin-$と$textbfout-of-$ドメイン設定よりも平均$12.92%と$23.71%のパフォーマンス劣化を引き起こす。
論文 参考訳(メタデータ) (2024-01-25T14:47:05Z) - CLIP-QDA: An Explainable Concept Bottleneck Model [2.3813076674916034]
本稿では,高速かつ説明可能な画像分類を行うマルチモーダル基礎モデルから設計した説明可能なアルゴリズムを提案する。
我々の説明は計算を高速化しながら既存のXAI手法と競合する。
論文 参考訳(メタデータ) (2023-11-30T18:19:47Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Testing Pre-trained Language Models' Understanding of Distributivity via
Causal Mediation Analysis [13.07356367140208]
自然言語推論のための新しい診断データセットであるDistNLIを紹介する。
モデルの理解の範囲は、モデルのサイズと語彙のサイズと関連していることがわかった。
論文 参考訳(メタデータ) (2022-09-11T00:33:28Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Duality-Induced Regularizer for Semantic Matching Knowledge Graph
Embeddings [70.390286614242]
本稿では, 類似のセマンティクスを持つエンティティの埋め込みを効果的に促進する新しい正規化器(duality-induced RegulArizer (DURA))を提案する。
実験により、DURAは、最先端のセマンティックマッチングモデルの性能を一貫して改善することを示した。
論文 参考訳(メタデータ) (2022-03-24T09:24:39Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Awareness Logic: A Kripke-based Rendition of the Heifetz-Meier-Schipper
Model [0.0]
本稿では,不確かさと無知を分離した原子部分集合包含によって引き起こされるクリプケモデルの格子に基づくモデルを提案する。
式満足を保つ変換を定義することで、同等となるモデルを示す。
論文 参考訳(メタデータ) (2020-12-23T21:24:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。