論文の概要: Fixed Point Semantics for Stream Reasoning
- arxiv url: http://arxiv.org/abs/2005.08384v1
- Date: Sun, 17 May 2020 22:25:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:06:13.228736
- Title: Fixed Point Semantics for Stream Reasoning
- Title(参考訳): ストリーム推論のための固定点意味論
- Authors: Christian Anti\'c
- Abstract要約: ストリーム推論は、AIコミュニティ内の研究領域として現れ、多くの潜在的な応用が期待されている。
非単調なストリーム推論のための規則に基づく形式主義とLARSは、解集合のセマンティクスに基づいて導入された。
我々の意味論は、答え集合がボトムアップから導出可能であり、円形の正当性を含まないという意味で健全で構成的であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning over streams of input data is an essential part of human
intelligence. During the last decade {\em stream reasoning} has emerged as a
research area within the AI-community with many potential applications. In
fact, the increased availability of streaming data via services like Google and
Facebook has raised the need for reasoning engines coping with data that
changes at high rate. Recently, the rule-based formalism {\em LARS} for
non-monotonic stream reasoning under the answer set semantics has been
introduced. Syntactically, LARS programs are logic programs with negation
incorporating operators for temporal reasoning, most notably {\em window
operators} for selecting relevant time points. Unfortunately, by preselecting
{\em fixed} intervals for the semantic evaluation of programs, the rigid
semantics of LARS programs is not flexible enough to {\em constructively} cope
with rapidly changing data dependencies. Moreover, we show that defining the
answer set semantics of LARS in terms of FLP reducts leads to undesirable
circular justifications similar to other ASP extensions. This paper fixes all
of the aforementioned shortcomings of LARS. More precisely, we contribute to
the foundations of stream reasoning by providing an operational fixed point
semantics for a fully flexible variant of LARS and we show that our semantics
is sound and constructive in the sense that answer sets are derivable bottom-up
and free of circular justifications.
- Abstract(参考訳): 入力データのストリームに対する推論は、人間の知性の重要な部分である。
過去10年間に、ストリーム推論はAIコミュニティ内の研究領域として現れ、多くの潜在的な応用が期待されている。
実際、GoogleやFacebookなどのサービスによるストリーミングデータの可用性の向上は、高速に変化するデータに対処する推論エンジンの必要性を高めている。
近年,解集合意味論に基づく非単調ストリーム推論の規則に基づく形式化が提案されている。
構文的には、LARSプログラムは時間的推論に演算子を組み込んだ論理プログラムであり、特に関連する時間点を選択するためのウィンドウ演算子である。
残念ながら、プログラムの意味的評価のために"em fixed"間隔を事前に選択することで、larsプログラムの厳格な意味論は、急速に変化するデータ依存に対処するのに十分柔軟ではない。
さらに、FLPレダクトの観点からLARSの解集合意味論を定義することは、他のASP拡張と同様に望ましくない円形の正当化をもたらすことを示す。
本稿では、上記LARSの欠点を全て解決する。
より正確には、完全に柔軟なlarsの変形に対して操作可能な不動点セマンティクスを提供することで、ストリーム推論の基礎に貢献し、我々のセマンティクスは、答え集合が導出可能なボトムアップであり、円状正当化がないという意味で健全で構成的であることを示します。
関連論文リスト
- Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
パフォーマンスギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - Thought-Path Contrastive Learning via Premise-Oriented Data Augmentation for Logical Reading Comprehension [9.67774998354062]
これまでの研究は主に、Chain-of-Thought(CoT)やデータ拡張による論理的推論能力の向上に重点を置いてきた。
本稿では,CoTの論理式を生成するためのPODA(Premise-Oriented Data Augmentation)フレームワークを提案する。
また,本論文では,原案と反実例の推論経路を比較検討する新たな思考経路コントラスト学習手法についても紹介する。
論文 参考訳(メタデータ) (2024-09-22T15:44:43Z) - Aggregation of Reasoning: A Hierarchical Framework for Enhancing Answer Selection in Large Language Models [84.15513004135576]
最近の研究は、複数の推論チェーンをサンプリングし、応答周波数に基づいてアンサンブルすることで、Large Language Models(LLMs)の推論性能を向上させる。
このアプローチは、正しい答えが少数派である場合に失敗する。
階層的推論集約フレームワークAoRを導入し、推論連鎖の評価に基づいて回答を選択する。
論文 参考訳(メタデータ) (2024-05-21T17:12:19Z) - LaRS: Latent Reasoning Skills for Chain-of-Thought Reasoning [61.7853049843921]
Chain-of-Thoughting(CoT)プロンプトは、大規模言語モデル(LLM)のための一般的なコンテキスト内学習手法である。
本稿では、教師なし学習を用いて有理数の潜在空間表現を生成するLaRS(Lalatnt Reasoning Skills)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-07T20:36:10Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - REFINER: Reasoning Feedback on Intermediate Representations [47.36251998678097]
中間推論を生成するための言語モデルを微調整するフレームワークであるREFINERを紹介する。
REFINERは、推論に対する自動フィードバックを提供する批評家モデルと対話することで機能する。
経験的評価は、同等のスケールのベースラインLMよりも大幅に改善された。
論文 参考訳(メタデータ) (2023-04-04T15:57:28Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Guiding the PLMs with Semantic Anchors as Intermediate Supervision:
Towards Interpretable Semantic Parsing [57.11806632758607]
本稿では,既存の事前学習言語モデルを階層型デコーダネットワークに組み込むことを提案する。
第一原理構造をセマンティックアンカーとすることで、2つの新しい中間管理タスクを提案する。
いくつかのセマンティック解析ベンチマークで集中的な実験を行い、我々のアプローチがベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T07:27:29Z) - Chasing Streams with Existential Rules [18.660026838228625]
データストリーム上でクエリ応答を行うために,既存のルールによる推論について検討する。
ルールベースのストリーム推論のフレームワークであるLARSを拡張して、既存のルールをサポートします。
本稿では,LARSを実存規則のセマンティックス保存集合に変換する方法について述べる。
論文 参考訳(メタデータ) (2022-05-04T17:53:17Z) - Faster than LASER -- Towards Stream Reasoning with Deep Neural Networks [0.6649973446180738]
Stream Reasonerは、推論とストリーム処理のギャップを埋めることを目指している。
LASERはデータストリーム上の複雑な推論を解析・実行するために設計されたストリーム推論器である。
本稿では、時系列予測や分類に特に適していることを示す畳み込みニューラルネットワークと反復ニューラルネットワークが、LASERによる推論を近似するために訓練可能であるかを検討する。
論文 参考訳(メタデータ) (2021-06-15T22:06:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。