論文の概要: Deep Neural Networks for Approximating Stream Reasoning with C-SPARQL
- arxiv url: http://arxiv.org/abs/2106.08452v1
- Date: Tue, 15 Jun 2021 21:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:28:27.881631
- Title: Deep Neural Networks for Approximating Stream Reasoning with C-SPARQL
- Title(参考訳): C-SPARQLを用いたストリーム推論の近似のためのディープニューラルネットワーク
- Authors: Ricardo Ferreira, Carolina Lopes, Ricardo Gon\c{c}alves, Matthias
Knorr, Ludwig Krippahl, Jo\~ao Leite
- Abstract要約: C-SPARQLはRDFデータのストリーム上の連続的なクエリのための言語である。
本稿では,C-SPARQLを用いた推論を,リカレントニューラルネットワークと畳み込みニューラルネットワークを用いて近似できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 0.8677532138573983
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The amount of information produced, whether by newspapers, blogs and social
networks, or by monitoring systems, is increasing rapidly. Processing all this
data in real-time, while taking into consideration advanced knowledge about the
problem domain, is challenging, but required in scenarios where assessing
potential risks in a timely fashion is critical. C-SPARQL, a language for
continuous queries over streams of RDF data, is one of the more prominent
approaches in stream reasoning that provides such continuous inference
capabilities over dynamic data that go beyond mere stream processing. However,
it has been shown that, in the presence of huge amounts of data, C-SPARQL may
not be able to answer queries in time, in particular when the frequency of
incoming data is higher than the time required for reasoning with that data. In
this paper, we investigate whether reasoning with C-SPARQL can be approximated
using Recurrent Neural Networks and Convolutional Neural Networks, two neural
network architectures that have been shown to be well-suited for time series
forecasting and time series classification, to leverage on their higher
processing speed once the network has been trained. We consider a variety of
different kinds of queries and obtain overall positive results with high
accuracies while improving processing time often by several orders of
magnitude.
- Abstract(参考訳): 新聞、ブログ、ソーシャルネットワーク、監視システムなどによって生成される情報の量は急速に増加している。
問題領域に関する高度な知識を考慮しながら、これらのデータをリアルタイムで処理することは難しいが、潜在的リスクをタイムリーに評価するシナリオでは必要である。
RDFデータのストリーム上での継続的クエリのための言語であるC-SPARQLは、ストリーム推論において、単なるストリーム処理以上の動的データに対して、このような継続的推論機能を提供する、より顕著なアプローチの1つである。
しかし、大量のデータが存在する場合、c-sparqlは、特にデータに対する推論に要する時間よりも入ってくるデータの頻度が高い場合に、時間内にクエリに応答できない可能性があることが示されている。
本稿では,C-SPARQLを用いた推論が,時系列予測や時系列分類に適していることを示す2つのニューラルネットワークアーキテクチャであるRecurrent Neural NetworksとConvolutional Neural Networksを用いて近似可能かどうかを検討する。
様々な種類のクエリを考慮し、高い精度で全体的な肯定的な結果を得るとともに、処理時間を桁違いに改善する。
関連論文リスト
- Temporal Convolution Derived Multi-Layered Reservoir Computing [5.261277318790788]
貯水池の状態空間への入力データの新たなマッピングを提案する。
ニューラルネットワークの並列化性,深さ,予測能力を向上する2つの新しいネットワークアーキテクチャにこの手法を組み込む。
カオス時系列では、Echo State Networksと比較して最大85.45%、Gated Recurrent Unitsと比較して90.72%のエラー削減が観察される。
論文 参考訳(メタデータ) (2024-07-09T11:40:46Z) - State-Space Modeling in Long Sequence Processing: A Survey on Recurrence in the Transformer Era [59.279784235147254]
このサーベイは、シーケンシャルなデータ処理の反復モデルに基づく最新のアプローチの詳細な概要を提供する。
新たなイメージは、標準のバックプロパゲーション・オブ・タイムから外れた学習アルゴリズムによって構成される、新しいルートを考える余地があることを示唆している。
論文 参考訳(メタデータ) (2024-06-13T12:51:22Z) - A Distance Correlation-Based Approach to Characterize the Effectiveness of Recurrent Neural Networks for Time Series Forecasting [1.9950682531209158]
距離相関の多元的指標を用いて,RNN成分と時系列特性をリンクする手法を提案する。
RNN活性化層が時系列のラグ構造をよく学習していることを実証的に示す。
また,アクティベーション層は移動平均およびヘテロスケダティック時系列過程を適切にモデル化できないことを示す。
論文 参考訳(メタデータ) (2023-07-28T22:32:08Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Faster than LASER -- Towards Stream Reasoning with Deep Neural Networks [0.6649973446180738]
Stream Reasonerは、推論とストリーム処理のギャップを埋めることを目指している。
LASERはデータストリーム上の複雑な推論を解析・実行するために設計されたストリーム推論器である。
本稿では、時系列予測や分類に特に適していることを示す畳み込みニューラルネットワークと反復ニューラルネットワークが、LASERによる推論を近似するために訓練可能であるかを検討する。
論文 参考訳(メタデータ) (2021-06-15T22:06:12Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Multivariate Time Series Classification Using Spiking Neural Networks [7.273181759304122]
スパイクニューラルネットワークは低消費電力を可能にするため注目されている。
本稿では,時系列をスパース時空間スパイクパターンに変換する符号化方式を提案する。
空間時間パターンを分類する学習アルゴリズムも提案する。
論文 参考訳(メタデータ) (2020-07-07T15:24:01Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。