論文の概要: A Formal Comparison between Datalog-based Languages for Stream Reasoning
(extended version)
- arxiv url: http://arxiv.org/abs/2208.12726v1
- Date: Fri, 26 Aug 2022 15:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:53:47.766895
- Title: A Formal Comparison between Datalog-based Languages for Stream Reasoning
(extended version)
- Title(参考訳): ストリーム推論のためのデータログ言語間の形式的比較(拡張版)
- Authors: Nicola Leone, Marco Manna, Maria Concetta Morelli, and Simona Perri
- Abstract要約: 本稿では,ストリーム上の推論のための2つの論理型言語の相対表現性について検討する。
制約なしでは、2つの言語は相容れないことを示し、他の言語を通して表現できる各言語の断片を識別する。
- 参考スコア(独自算出の注目度): 4.441335529279506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper investigates the relative expressiveness of two logic-based
languages for reasoning over streams, namely LARS Programs -- the language of
the Logic-based framework for Analytic Reasoning over Streams called LARS --
and LDSR -- the language of the recent extension of the I-DLV system for stream
reasoning called I-DLV-sr. Although these two languages build over Datalog,
they do differ both in syntax and semantics. To reconcile their expressive
capabilities for stream reasoning, we define a comparison framework that allows
us to show that, without any restrictions, the two languages are incomparable
and to identify fragments of each language that can be expressed via the other
one.
- Abstract(参考訳): 本稿では、ストリーム上の推論のための2つの論理型言語の相対表現性、すなわち、LARSと呼ばれるストリーム上の分析推論のための論理型フレームワークの言語であるLARSプログラムと、I-DLV-srと呼ばれるストリーム推論のためのI-DLVシステムの最近の拡張言語LDSRについて検討する。
これら2つの言語はDatalog上に構築されているが、構文と意味の両方が異なる。
ストリーム推論のための表現能力の整合を図るため,制約なしでは2つの言語が相容れないことを示すための比較フレームワークを定義し,他の言語を介して表現できる各言語の断片を識別する。
関連論文リスト
- Transformer-based Language Models for Reasoning in the Description Logic ALCQ [2.8210912543324658]
自然言語のデータセット DELTA$_D$ を表現型記述論理言語 $mathcalALCQ$ を使って構築する。
教師付き細調整DeBERTaモデルと2つの大言語モデルの論理的推論能力について検討する。
データセットに微調整されたDeBERTaベースのモデルが、詳細チェックタスクをマスターできることを示します。
論文 参考訳(メタデータ) (2024-10-12T18:25:34Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Logic of Differentiable Logics: Towards a Uniform Semantics of DL [1.1549572298362787]
論理的仕様を満たすためにニューラルネットワークを訓練する方法として、微分論理(DL)が提案されている。
本稿では、微分可能論理学(LDL)と呼ばれるDLを定義するメタ言語を提案する。
我々は,既存のDLの理論的特性を確立するためにLDLを使用し,ニューラルネットワークの検証において実験的な研究を行う。
論文 参考訳(メタデータ) (2023-03-19T13:03:51Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - LAE: Language-Aware Encoder for Monolingual and Multilingual ASR [87.74794847245536]
言語固有の情報を混在させることにより,両状況に対処する新しい言語対応エンコーダ (LAE) アーキテクチャを提案する。
マンダリン・イングリッシュ・コードスウィッチ音声を用いた実験により,LAEはフレームレベルで異なる言語を識別できることが示唆された。
論文 参考訳(メタデータ) (2022-06-05T04:03:12Z) - Multi-level Contrastive Learning for Cross-lingual Spoken Language
Understanding [90.87454350016121]
コントラスト学習のための難解なサンプルを, あらゆるレベルで生成するコードスイッチング手法を開発した。
言語間知識伝達にラベルセマンティクスを利用するラベル認識ジョイントモデルを開発した。
論文 参考訳(メタデータ) (2022-05-07T13:44:28Z) - Foundations of Symbolic Languages for Model Interpretability [2.3361634876233817]
本稿では,2種類のMLモデル上でのFOILクエリの計算複雑性について検討する。
本稿では,高レベルの宣言型言語でラップされたFOILのプロトタイプ実装について述べる。
論文 参考訳(メタデータ) (2021-10-05T21:56:52Z) - Logic-Driven Context Extension and Data Augmentation for Logical
Reasoning of Text [65.24325614642223]
論理的な記号や表現をテキストで理解し、答えにたどり着くよう提案します。
このような論理的情報に基づいて,文脈拡張フレームワークとデータ拡張アルゴリズムを提案する。
本手法は最先端の性能を実現し,論理駆動コンテキスト拡張フレームワークとデータ拡張アルゴリズムの両方が精度向上に寄与する。
論文 参考訳(メタデータ) (2021-05-08T10:09:36Z) - CLAR: A Cross-Lingual Argument Regularizer for Semantic Role Labeling [17.756625082528142]
CLAR(Cross-Lingual Argument Regularizer)と呼ばれる手法を提案する。
CLARは言語間の言語アノテーションの類似性を識別し、この情報を利用して対象言語引数をマッピングする。
実験の結果、CLARは低リソース言語に対する単言語および多言語ベースラインよりも、複数の言語でのSRL性能を一貫して改善することが示された。
論文 参考訳(メタデータ) (2020-11-09T20:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。