論文の概要: A Differential Datalog Interpreter
- arxiv url: http://arxiv.org/abs/2308.04214v1
- Date: Fri, 4 Aug 2023 15:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 12:54:03.127252
- Title: A Differential Datalog Interpreter
- Title(参考訳): 差分データログの解釈
- Authors: Bruno Rucy Carneiro Alves de Lima, Merlin Kramer and Kalmer Apinis
- Abstract要約: 本稿では,3つの参照データログ実装による実体化の性能について検討する。
1つは軽量リレーショナルエンジン上に構築され、もう1つは差分データフローと、同じ書き換えアルゴリズムの非微分バージョンである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The core reasoning task for datalog engines is materialization, the
evaluation of a datalog program over a database alongside its physical
incorporation into the database itself. The de-facto method of computing it, is
through the recursive application of inference rules. Due to it being a costly
operation, it is a must for datalog engines to provide incremental
materialization, that is, to adjust the computation to new data, instead of
restarting from scratch. One of the major caveats, is that deleting data is
notoriously more involved than adding, since one has to take into account all
possible data that has been entailed from what is being deleted. Differential
Dataflow is a computational model that provides efficient incremental
maintenance, notoriously with equal performance between additions and
deletions, and work distribution, of iterative dataflows. In this paper we
investigate the performance of materialization with three reference datalog
implementations, out of which one is built on top of a lightweight relational
engine, and the two others are differential-dataflow and non-differential
versions of the same rewrite algorithm, with the same optimizations.
- Abstract(参考訳): データログエンジンのコア推論タスクは、データログプログラムをデータベース自体に物理的に組み込むとともに、データベース上で評価することである。
計算のデファクト法は、推論規則の再帰的な適用を通じて行われる。
コストのかかる操作であるため、データログエンジンは、スクラッチからリスタートするのではなく、新しいデータへの計算を調整するために、インクリメンタルな実体化を提供する必要がある。
重要な注意点の1つは、削除されるデータに関係のあるすべてのデータを考慮に入れなければならないため、データを削除することは追加するよりも悪名高いことである。
differential dataflow(ディファレンシャル・データフロー)は、反復データフローの追加と削除、および作業分散間で同等のパフォーマンスを持つ、効率的なインクリメンタルなメンテナンスを提供する計算モデルである。
本稿では,軽量リレーショナルエンジン上に構築された3つの参照データログ実装による実体化の性能について検討する。
関連論文リスト
- EraseDiff: Erasing Data Influence in Diffusion Models [51.225365010401006]
データ記憶に関する問題に対処する未学習アルゴリズムであるEraseDiffを導入する。
提案手法は,非学習課題を制約付き最適化問題として定式化する。
本稿では,EraseDiffがモデルの有用性,有効性,効率を効果的に維持していることを示す。
論文 参考訳(メタデータ) (2024-01-11T09:30:36Z) - Fast Training of NMT Model with Data Sorting [0.0]
Transformerモデルはニューラルマシン翻訳などの自然言語処理タスクに革命をもたらした。
改善の潜在的領域の1つは、Transformerが計算した空のトークンの研究に対処し、後に破棄することである。
本稿では,翻訳前の文長に基づいて文対をソートするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-16T05:48:50Z) - A Pre-trained Data Deduplication Model based on Active Learning [13.495903601474819]
汚れたデータ"問題は、ビッグデータの効果的な適用を著しく制限することができる。
本研究では,能動学習に基づく事前学習型重複解法モデルを提案する。
提案モデルでは、重複データ識別のための従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-07-31T03:56:46Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Dataset Distillation using Neural Feature Regression [32.53291298089172]
ニューラル・フィーチャー・レグレッション・アンド・プール(FRePo)を用いたデータセット蒸留アルゴリズムを開発した。
FRePoは、メモリ要件を桁違いに少なくし、以前の方法よりも2桁高速なトレーニングで最先端のパフォーマンスを実現している。
我々は,高品質な蒸留データにより,連続学習や会員推測防衛など,下流の様々な応用を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-01T19:02:06Z) - MIRACLE: Causally-Aware Imputation via Learning Missing Data Mechanisms [82.90843777097606]
欠落データに対する因果認識型計算アルゴリズム(MIRACLE)を提案する。
MIRACLEは、欠落発生機構を同時にモデル化することにより、ベースラインの計算を反復的に洗練する。
我々は、MIRACLEが一貫してイミューテーションを改善することができることを示すために、合成および様々な公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2021-11-04T22:38:18Z) - Highly Parallel Autoregressive Entity Linking with Discriminative
Correction [51.947280241185]
自己回帰リンクを全ての潜在的な言及に対して並列化する,非常に効率的な手法を提案する。
我々のモデルは以前の生成法より70倍高速で精度が高い。
論文 参考訳(メタデータ) (2021-09-08T17:28:26Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - PClean: Bayesian Data Cleaning at Scale with Domain-Specific
Probabilistic Programming [65.88506015656951]
我々は、データセット固有の知識を活用して汚いデータのクリーン化と正規化を行う確率的プログラミング言語であるPCleanを提案する。
PCleanは、(1)確率的プログラムでカスタマイズ可能なリレーショナルデータベースインスタンスの非パラメトリックモデル、(2)モデルの構造を利用するシーケンシャルなモンテカルロ推論アルゴリズム、(3)ほぼ最適のSMC提案とブロックされたギブス再構成の3つのモデルと推論コントリビューションを利用している。
論文 参考訳(メタデータ) (2020-07-23T08:01:47Z) - Establishing strong imputation performance of a denoising autoencoder in
a wide range of missing data problems [0.0]
トレーニングと計算の両方に一貫したフレームワークを開発します。
結果と最先端の計算手法を比較検討した。
開発されたオートエンコーダは、初期データ破損のあらゆる範囲において最小の誤差を得た。
論文 参考訳(メタデータ) (2020-04-06T12:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。