論文の概要: SPARE: A Single-Pass Neural Model for Relational Databases
- arxiv url: http://arxiv.org/abs/2310.13581v1
- Date: Fri, 20 Oct 2023 15:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 22:13:01.752757
- Title: SPARE: A Single-Pass Neural Model for Relational Databases
- Title(参考訳): spare: リレーショナルデータベースのための単一パスニューラルモデル
- Authors: Benjamin Hilprecht, Kristian Kersting and Carsten Binnig
- Abstract要約: 我々は、GNNと同様の精度を提供しながら、RDB上で効率的にトレーニングできる新しいニューラルネットワーククラスであるSPAREを提案する。
GNNとは異なる効率的なトレーニングを可能にするため、SPAREでは、RDB内のデータが予測正則構造を持つという事実を活用している。
- 参考スコア(独自算出の注目度): 36.55513135391452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there has been extensive work on deep neural networks for images and
text, deep learning for relational databases (RDBs) is still a rather
unexplored field.
One direction that recently gained traction is to apply Graph Neural Networks
(GNNs) to RBDs. However, training GNNs on large relational databases (i.e.,
data stored in multiple database tables) is rather inefficient due to multiple
rounds of training and potentially large and inefficient representations.
Hence, in this paper we propose SPARE (Single-Pass Relational models), a new
class of neural models that can be trained efficiently on RDBs while providing
similar accuracies as GNNs. For enabling efficient training, different from
GNNs, SPARE makes use of the fact that data in RDBs has a regular structure,
which allows one to train these models in a single pass while exploiting
symmetries at the same time. Our extensive empirical evaluation demonstrates
that SPARE can significantly speedup both training and inference while offering
competitive predictive performance over numerous baselines.
- Abstract(参考訳): 画像やテキストのディープニューラルネットワークに関する広範な研究は行われているが、リレーショナルデータベース(RDB)のディープラーニングはいまだに未調査の分野である。
最近注目を集めた方向の1つは、グラフニューラルネットワーク(gnns)をrbdsに適用することである。
しかし、大規模リレーショナルデータベース(例えば、複数のデータベーステーブルに格納されたデータ)でのGNNのトレーニングは、複数の訓練ラウンドと潜在的に大きく非効率な表現のために、かなり非効率である。
そこで本論文では,rdb上で効率的に学習でき,gnnと類似した精度を持つニューラルモデルであるspare (single-pass relational models)を提案する。
GNNとは異なる効率的なトレーニングを可能にするため、SPAREでは、RDB内のデータが正規構造であるため、同時に対称性を活用しながら、これらのモデルを単一のパスでトレーニングすることが可能である。
広範な経験的評価の結果,spareはトレーニングと推論の両方を著しくスピードアップし,多数のベースライン上での競合予測性能を提供することができた。
関連論文リスト
- RelGNN: Composite Message Passing for Relational Deep Learning [56.48834369525997]
本稿では,リレーショナルデータベースの特徴を捉えた新しいGNNフレームワークであるRelGNNを紹介する。
我々のアプローチの核となるのは、高次三部構造を形成するノードの列である原子経路の導入である。
RelGNNは、最先端の精度を最大25%改善して一貫して達成している。
論文 参考訳(メタデータ) (2025-02-10T18:58:40Z) - Training Graph Neural Networks Using Non-Robust Samples [2.1937382384136637]
グラフニューラルネットワーク(GNN)は、構造化されたデータを処理するための、非常に効果的なニューラルネットワークである。
GNNは、データポイント間の関係を表すグラフ構造と、データの特徴行列の両方を活用して、特徴表現を最適化する。
本稿では,モデルトレーニングのためのより小型で効果的なトレーニングセットを構築するために,元のトレーニングセットからノイズに敏感なトレーニングサンプルを選択する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-19T11:10:48Z) - Parallel Multi-path Feed Forward Neural Networks (PMFFNN) for Long Columnar Datasets: A Novel Approach to Complexity Reduction [0.0]
我々はPMFFNN(Parallel Multi-path Feed Forward Neural Networks)と呼ばれる新しいアーキテクチャを導入する。
そうすることで、アーキテクチャは各機能のサブセットに注目が集まることを保証します。
PMFFNNは従来のFFNNや1D CNNよりも優れており、大規模データ管理に最適化されたソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-09T00:48:32Z) - Training Better Deep Learning Models Using Human Saliency [11.295653130022156]
本研究では、画像の正常領域に関する人間の判断が、ディープ畳み込みニューラルネットワーク(DCNN)トレーニングにどのように導入できるかを考察する。
本稿では,ConveYs Brain Oversight to raise Generalization (CYBORG) における損失関数の新たな構成要素を提案する。
論文 参考訳(メタデータ) (2024-10-21T16:52:44Z) - Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Simple Recurrent Neural Networks is all we need for clinical events
predictions using EHR data [22.81278657120305]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、EHRに基づく臨床イベント予測モデルのための一般的なアーキテクチャである。
心不全の発症リスクと入院早期入院のリスクの2つの予測課題を用いた。
GRUやLSTMなどの単純なゲート付きRNNモデルでは,ベイズ最適化を適切に調整した場合に,しばしば競合する結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-10-03T13:07:23Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。