論文の概要: Thirty years of Epistemic Specifications
- arxiv url: http://arxiv.org/abs/2108.07669v1
- Date: Tue, 17 Aug 2021 15:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 15:52:56.764520
- Title: Thirty years of Epistemic Specifications
- Title(参考訳): 認識論的仕様の30年
- Authors: Jorge Fandinno, Wolfgang Faber and Michael Gelfond
- Abstract要約: 我々は、主観的リテラルと呼ばれるモーダル構造を持つ安定モデルセマンティクスの下で、解法論理プログラムを拡張した。
主観的リテラルを用いることで、プログラムのすべての安定モデルで正規リテラルが真かどうかを確認することができる。
形式的な意味論によって言語の基礎となる直観を捉えようとするいくつかの試みが与えられた。
- 参考スコア(独自算出の注目度): 8.339560855135575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The language of epistemic specifications and epistemic logic programs extends
disjunctive logic programs under the stable model semantics with modal
constructs called subjective literals. Using subjective literals, it is
possible to check whether a regular literal is true in every or some stable
models of the program, those models, in this context also called \emph{belief
sets}, being collected in a set called world view. This allows for
representing, within the language, whether some proposition should be
understood accordingly to the open or the closed world assumption. Several
attempts for capturing the intuitions underlying the language by means of a
formal semantics were given, resulting in a multitude of proposals that makes
it difficult to understand the current state of the art. In this paper, we
provide an overview of the inception of the field and the knowledge
representation and reasoning tasks it is suitable for. We also provide a
detailed analysis of properties of proposed semantics, and an outlook of
challenges to be tackled by future research in the area. Under consideration in
Theory and Practice of Logic Programming (TPLP)
- Abstract(参考訳): 認識論的仕様と認識論的論理プログラムの言語は、主観的リテラルと呼ばれる様相を持つ安定なモデル意味論の下で分離論理プログラムを拡張する。
主観的リテラルを用いることで、この文脈では \emph{belief sets} と呼ばれるプログラムの各モデルまたはいくつかの安定モデルにおいて正規リテラルが真かどうかをチェックでき、world view と呼ばれる集合で収集することができる。
これにより、言語内で、ある命題がオープンまたはクローズドワールドの仮定に従って理解されるべきかどうかを表現できる。
形式的意味論によって言語の基礎となる直観を捉えようとするいくつかの試みがなされ、その結果、芸術の現状を理解するのが困難になる多数の提案がなされた。
本稿では,フィールドの創発と,それに適した知識表現と推論タスクの概要について述べる。
また,提案するセマンティクスの特性を詳細に分析し,今後の研究で取り組まなければならない課題の展望について述べる。
論理プログラミング(tplp)の理論と実践に関する考察
関連論文リスト
- Toward Conceptual Modeling for Propositional Logic: Propositions as Events [0.0]
本稿では,物間機械(TM)モデルと呼ばれる高レベル図形表現に命題論理言語を適用することを考察する。
究極的な研究目的は、TMモデリングと命題論理の完全なセマンティックアライメントを単一の構造に求めることである。
論文 参考訳(メタデータ) (2024-09-24T03:45:24Z) - Learning Visual-Semantic Subspace Representations for Propositional Reasoning [49.17165360280794]
本稿では,特定の意味構造に適合する視覚表現を学習するための新しい手法を提案する。
我々のアプローチは、新しい核規範に基づく損失に基づいている。
部分空間格子におけるセマンティクスのスペクトル幾何学を最小エンコードしていることを示す。
論文 参考訳(メタデータ) (2024-05-25T12:51:38Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Evaluating statistical language models as pragmatic reasoners [39.72348730045737]
我々は,語学的な発話の意味を推測するために,大規模言語モデルの能力を評価する。
LLMは、複数の複雑な実用的発話の解釈に対して、文脈的、人間的な分布を導出することができる。
結果は,統計的言語モデルの推論能力と,実践的・意味論的解析への応用について報告する。
論文 参考訳(メタデータ) (2023-05-01T18:22:10Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - A Kind Introduction to Lexical and Grammatical Aspect, with a Survey of
Computational Approaches [7.310850880167243]
アスペクトの意味は、状況の内部時間構造がどのように表現されるかを意味する。
本調査は,語彙的・文法的側面をモデル化するための計算手法の概要について述べる。
論文 参考訳(メタデータ) (2022-08-18T18:22:42Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - Modelling Compositionality and Structure Dependence in Natural Language [0.12183405753834563]
言語学と集合論に基づいて、これらの概念の形式化がこの論文の前半で述べられている。
言語処理を行う認知システムは,特定の機能的制約を持つ必要がある。
単語埋め込み技術の進歩を利用して、関係学習のモデルがシミュレートされる。
論文 参考訳(メタデータ) (2020-11-22T17:28:50Z) - Exploring Probabilistic Soft Logic as a framework for integrating
top-down and bottom-up processing of language in a task context [0.6091702876917279]
このアーキテクチャは既存のNLPコンポーネントを統合し、8段階の言語モデリングの候補分析を生成する。
このアーキテクチャは、形式レベルでの表現形式としてUniversal Dependencies (UD) と、学習者回答のセマンティックな分析を表現するための抽象的意味表現 (AMR) に基づいて構築されている。
論文 参考訳(メタデータ) (2020-04-15T11:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。