論文の概要: SPARE: A Single-Pass Neural Model for Relational Databases
- arxiv url: http://arxiv.org/abs/2310.13581v1
- Date: Fri, 20 Oct 2023 15:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 22:13:01.752757
- Title: SPARE: A Single-Pass Neural Model for Relational Databases
- Title(参考訳): spare: リレーショナルデータベースのための単一パスニューラルモデル
- Authors: Benjamin Hilprecht, Kristian Kersting and Carsten Binnig
- Abstract要約: 我々は、GNNと同様の精度を提供しながら、RDB上で効率的にトレーニングできる新しいニューラルネットワーククラスであるSPAREを提案する。
GNNとは異なる効率的なトレーニングを可能にするため、SPAREでは、RDB内のデータが予測正則構造を持つという事実を活用している。
- 参考スコア(独自算出の注目度): 36.55513135391452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there has been extensive work on deep neural networks for images and
text, deep learning for relational databases (RDBs) is still a rather
unexplored field.
One direction that recently gained traction is to apply Graph Neural Networks
(GNNs) to RBDs. However, training GNNs on large relational databases (i.e.,
data stored in multiple database tables) is rather inefficient due to multiple
rounds of training and potentially large and inefficient representations.
Hence, in this paper we propose SPARE (Single-Pass Relational models), a new
class of neural models that can be trained efficiently on RDBs while providing
similar accuracies as GNNs. For enabling efficient training, different from
GNNs, SPARE makes use of the fact that data in RDBs has a regular structure,
which allows one to train these models in a single pass while exploiting
symmetries at the same time. Our extensive empirical evaluation demonstrates
that SPARE can significantly speedup both training and inference while offering
competitive predictive performance over numerous baselines.
- Abstract(参考訳): 画像やテキストのディープニューラルネットワークに関する広範な研究は行われているが、リレーショナルデータベース(RDB)のディープラーニングはいまだに未調査の分野である。
最近注目を集めた方向の1つは、グラフニューラルネットワーク(gnns)をrbdsに適用することである。
しかし、大規模リレーショナルデータベース(例えば、複数のデータベーステーブルに格納されたデータ)でのGNNのトレーニングは、複数の訓練ラウンドと潜在的に大きく非効率な表現のために、かなり非効率である。
そこで本論文では,rdb上で効率的に学習でき,gnnと類似した精度を持つニューラルモデルであるspare (single-pass relational models)を提案する。
GNNとは異なる効率的なトレーニングを可能にするため、SPAREでは、RDB内のデータが正規構造であるため、同時に対称性を活用しながら、これらのモデルを単一のパスでトレーニングすることが可能である。
広範な経験的評価の結果,spareはトレーニングと推論の両方を著しくスピードアップし,多数のベースライン上での競合予測性能を提供することができた。
関連論文リスト
- Decouple Graph Neural Networks: Train Multiple Simple GNNs
Simultaneously Instead of One [82.91940450061445]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - Poster: Link between Bias, Node Sensitivity and Long-Tail Distribution
in trained DNNs [12.404169549562523]
長い尾の分布を持つトレーニングデータセットはディープニューラルネットワーク(DNN)に挑戦する
この研究は、異なる出力クラスに対するノードの感度の変化につながるノードバイアスを特定する。
実世界のデータセットでトレーニングされたネットワークの実証的なケーススタディを用いて、推論を支援する。
論文 参考訳(メタデータ) (2023-03-29T10:49:31Z) - Learn, Unlearn and Relearn: An Online Learning Paradigm for Deep Neural
Networks [12.525959293825318]
我々は、ディープニューラルネットワーク(DNN)のためのオンライン学習パラダイムであるLearning, Unlearn, and Relearn(LURE)を紹介する。
LUREは、モデルの望ましくない情報を選択的に忘れる未学習フェーズと、一般化可能な特徴の学習を強調する再学習フェーズとを交換する。
トレーニングパラダイムは、分類と少数ショット設定の両方において、データセット間で一貫したパフォーマンス向上を提供します。
論文 参考訳(メタデータ) (2023-03-18T16:45:54Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Simple Recurrent Neural Networks is all we need for clinical events
predictions using EHR data [22.81278657120305]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、EHRに基づく臨床イベント予測モデルのための一般的なアーキテクチャである。
心不全の発症リスクと入院早期入院のリスクの2つの予測課題を用いた。
GRUやLSTMなどの単純なゲート付きRNNモデルでは,ベイズ最適化を適切に調整した場合に,しばしば競合する結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-10-03T13:07:23Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。