論文の概要: RelBench v2: A Large-Scale Benchmark and Repository for Relational Data
- arxiv url: http://arxiv.org/abs/2602.12606v1
- Date: Fri, 13 Feb 2026 04:23:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.846628
- Title: RelBench v2: A Large-Scale Benchmark and Repository for Relational Data
- Title(参考訳): RelBench v2:リレーショナルデータのための大規模ベンチマークとリポジトリ
- Authors: Justin Gu, Rishabh Ranjan, Charilaos Kanatsoulis, Haiming Tang, Martin Jurkovic, Valter Hudovernik, Mark Znidar, Pranshu Chaturvedi, Parth Shroff, Fengyu Li, Jure Leskovec,
- Abstract要約: RDLのためのRelBenchベンチマークのメジャー拡張であるRelBench v2を紹介する。
RDLモデルは、オートコンプリート予測とレコメンデーションタスクで、シングルテーブルベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 33.795728412518834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Relational deep learning (RDL) has emerged as a powerful paradigm for learning directly on relational databases by modeling entities and their relationships across multiple interconnected tables. As this paradigm evolves toward larger models and relational foundation models, scalable and realistic benchmarks are essential for enabling systematic evaluation and progress. In this paper, we introduce RelBench v2, a major expansion of the RelBench benchmark for RDL. RelBench v2 adds four large-scale relational datasets spanning scholarly publications, enterprise resource planning, consumer platforms, and clinical records, increasing the benchmark to 11 datasets comprising over 22 million rows across 29 tables. We further introduce autocomplete tasks, a new class of predictive objectives that require models to infer missing attribute values directly within relational tables while respecting temporal constraints, expanding beyond traditional forecasting tasks constructed via SQL queries. In addition, RelBench v2 expands beyond its native datasets by integrating external benchmarks and evaluation frameworks: we translate event streams from the Temporal Graph Benchmark into relational schemas for unified relational-temporal evaluation, interface with ReDeLEx to provide uniform access to 70+ real-world databases suitable for pretraining, and incorporate 4DBInfer datasets and tasks to broaden multi-table prediction coverage. Experimental results demonstrate that RDL models consistently outperform single-table baselines across autocomplete, forecasting, and recommendation tasks, highlighting the importance of modeling relational structure explicitly.
- Abstract(参考訳): リレーショナルディープラーニング(Relational Deep Learning, RDL)は、複数の相互接続テーブルをまたいだエンティティとその関係をモデル化することによって、リレーショナルデータベースを直接学習する強力なパラダイムとして登場した。
このパラダイムがより大きなモデルやリレーショナル基盤モデルへと進化するにつれて、スケーラブルで現実的なベンチマークは、体系的な評価と進捗を可能にするために不可欠である。
本稿では、RDLのためのRelBenchベンチマークのメジャー拡張であるRelBench v2を紹介する。
RelBench v2では、学術出版物、企業リソース計画、コンシューマプラットフォーム、臨床記録にまたがる4つの大規模なリレーショナルデータセットが追加され、ベンチマークは29テーブルにまたがる2200万行を超える11のデータセットに増加した。
これは、SQLクエリによって構築された従来の予測タスクを超えて拡張され、時間的制約を尊重しながら、リレーショナルテーブル内で、欠落した属性値を直接推測するモデルを必要とする新しい予測目的のクラスである。
さらに、RelBench v2は、外部ベンチマークと評価フレームワークを統合することで、ネイティブデータセットを超えて拡張されている: テンポラルグラフベンチマークからリレーショナルスキーマに変換して、統合されたリレーショナル時間評価を行う。
実験結果から、RDLモデルはオートコンプリート、予測、レコメンデーションタスクにまたがる単一テーブルベースラインを一貫して上回り、リレーショナル構造をモデル化することの重要性を強調した。
関連論文リスト
- Relational Database Distillation: From Structured Tables to Condensed Graph Data [48.347717300340435]
グラフベースモデルに必要な電力を維持しつつ,大規模RDBをコンパクトなヘテロジニアスグラフに蒸留することを目的としている。
さらに、擬似ラベルを用いてカーネルリッジ回帰誘導目標を設計し、蒸留グラフの品質特性を創出する。
論文 参考訳(メタデータ) (2025-10-08T13:05:31Z) - LimiX: Unleashing Structured-Data Modeling Capability for Generalist Intelligence [61.46575527504109]
LimiX-16MとLimiX-2Mは、構造化されたデータを変数と欠落に対する共同分布として扱う。
サンプルサイズ,特徴次元,クラス数,カテゴリ間特徴比,欠落度,サンプル-特徴比の広い11種類の大規模構造化データベンチマークを対象としたLimiXモデルの評価を行った。
論文 参考訳(メタデータ) (2025-09-03T17:39:08Z) - Synthesize, Retrieve, and Propagate: A Unified Predictive Modeling Framework for Relational Databases [34.57267286892218]
本研究では,一元的依存関係を用いて特徴を合成する一元的予測モデリングフレームワークであるSRPを提案する。
SRPは、リレーショナルデータベース内の一元的および複合的依存関係の両方を完全にキャプチャするように設計されている。
論文 参考訳(メタデータ) (2025-08-10T07:59:41Z) - REDELEX: A Framework for Relational Deep Learning Exploration [0.0]
近年、深層学習は、RDBをグラフ構造として概念化する新しいパラダイムとして登場した。
様々なRDLモデルと基礎となるRDBの特徴との関係について分析することができない。
REDELEX$-$aの総合的な探査フレームワークを70以上のRDBの最も多様なコレクション上で、様々な複雑さのRDLモデルを評価する。
論文 参考訳(メタデータ) (2025-06-27T13:05:15Z) - Relational Deep Learning: Challenges, Foundations and Next-Generation Architectures [50.46688111973999]
グラフ機械学習は、任意のグラフ構造化データで学習するモデルの能力を大幅に向上させた。
従来の工学的特徴を伴わない'関係エンティティグラフ'のエンドツーエンド表現を可能にする新しい青写真を提案する。
本稿では、大規模マルチテーブル統合や、時間力学と異種データのモデリングの複雑さなど、重要な課題について論じる。
論文 参考訳(メタデータ) (2025-06-19T23:51:38Z) - RDB2G-Bench: A Comprehensive Benchmark for Automatic Graph Modeling of Relational Databases [34.357399264742526]
グラフモデリング手法を評価するための最初のベンチマークフレームワークであるRDB2G-Benchを紹介する。
本研究では,12タスクにおけるRDB-to-graph自動モデリング手法を,オンザフライ評価より約380倍高速にベンチマークする。
データセットとベンチマークの結果から,グラフモデルの有効性に影響を及ぼす重要な構造パターンが明らかになった。
論文 参考訳(メタデータ) (2025-06-02T06:34:10Z) - RelDiff: Relational Data Generative Modeling with Graph-Based Diffusion Models [83.6013616017646]
RelDiffは、外部キーグラフ構造を明示的にモデル化することによって完全な関係データベースを合成する新しい拡散生成モデルである。
RelDiffは、現実的で一貫性のある合成リレーショナルデータベースの作成において、従来手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2025-05-31T21:01:02Z) - Joint Relational Database Generation via Graph-Conditional Diffusion Models [44.06390394789874]
プライバシのデータリリースや実際のデータセットといったアプリケーションでは、データベース(RDB)の生成モデルの構築が重要です。
従来はシングルテーブル生成にフォーカスするか、あるいはテーブルの順序を固定しテーブルを逐次生成する自動回帰因子化に依存していた。
我々は、RDB内のすべてのテーブルを秩序を課すことなく、共同でモデリングするという、根本的に異なるアプローチを提案する。
論文 参考訳(メタデータ) (2025-05-22T11:12:56Z) - RelBench: A Benchmark for Deep Learning on Relational Databases [78.52438155603781]
本稿では,グラフニューラルネットワークを用いたデータベース上でタスクを解くための公開ベンチマークであるRelBenchを紹介する。
私たちはRelBenchを使って、ディープラーニングインフラストラクチャに関する初の総合的な研究を行っています。
RDLは、人間の作業量を1桁以上削減しながら、より良く学習する。
論文 参考訳(メタデータ) (2024-07-29T14:46:13Z) - 4DBInfer: A 4D Benchmarking Toolbox for Graph-Centric Predictive Modeling on Relational DBs [67.47600679176963]
RDBは、相互接続されたテーブルにまたがる膨大な量のリッチで情報的なデータを格納する。
予測機械学習モデルの進歩は、コンピュータビジョンや自然言語処理といった他の領域の進歩に遅れをとっている。
マルチテーブルデータセットをグラフに変換することを前提としたベースラインモデルのクラスを探索する。
大規模RDBデータセットと (ii) 同時予測タスクの多様なコレクションを組み立てる。
論文 参考訳(メタデータ) (2024-04-28T15:04:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。