論文の概要: SALT-KG: A Benchmark for Semantics-Aware Learning on Enterprise Tables
- arxiv url: http://arxiv.org/abs/2601.07638v1
- Date: Mon, 12 Jan 2026 15:17:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.497068
- Title: SALT-KG: A Benchmark for Semantics-Aware Learning on Enterprise Tables
- Title(参考訳): SALT-KG: エンタープライズテーブル上でのセマンティック・アウェアラーニングのベンチマーク
- Authors: Isaiah Onando Mulang, Felix Sasaki, Tassilo Klein, Jonas Kolk, Nikolay Grechanov, Johannes Hoffart,
- Abstract要約: SALT-KGは、エンタープライズテーブルにおける意味論的学習のベンチマークである。
それは、そのマルチテーブルトランザクションデータを、メタデータ知識グラフで表される構造化されたオペレーションビジネス知識と結びつけます。
- 参考スコア(独自算出の注目度): 4.735082325133132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building upon the SALT benchmark for relational prediction (Klein et al., 2024), we introduce SALT-KG, a benchmark for semantics-aware learning on enterprise tables. SALT-KG extends SALT by linking its multi-table transactional data with a structured Operational Business Knowledge represented in a Metadata Knowledge Graph (OBKG) that captures field-level descriptions, relational dependencies, and business object types. This extension enables evaluation of models that jointly reason over tabular evidence and contextual semantics, an increasingly critical capability for foundation models on structured data. Empirical analysis reveals that while metadata-derived features yield modest improvements in classical prediction metrics, these metadata features consistently highlight gaps in the ability of models to leverage semantics in relational context. By reframing tabular prediction as semantics-conditioned reasoning, SALT-KG establishes a benchmark to advance tabular foundation models grounded in declarative knowledge, providing the first empirical step toward semantically linked tables in structured data at enterprise scale.
- Abstract(参考訳): 関係予測のためのSALTベンチマーク(Klein et al , 2024)をベースとして, エンタープライズテーブルにおける意味論的学習のベンチマークであるSALT-KGを紹介する。
SALT-KGは、そのマルチテーブルトランザクションデータをメタデータ知識グラフ(OBKG)に表される構造化されたオペレーションビジネス知識にリンクすることでSALTを拡張し、フィールドレベルの記述、リレーショナル依存関係、ビジネスオブジェクトタイプをキャプチャする。
この拡張は、構造化データの基盤モデルにとってますます重要な機能である、表象的証拠と文脈的意味論を共同で推論するモデルの評価を可能にする。
経験的分析により、メタデータから派生した特徴は古典的な予測指標の質素な改善をもたらすが、これらのメタデータ特徴は関係文脈におけるセマンティクスを活用できるモデルのギャップを一貫して強調する。
SALT-KGは、表層予測を意味論的推論として解釈することで、宣言的知識に基づく表層基盤モデルを進化させるためのベンチマークを確立し、企業規模で構造化されたデータに意味的に関連付けられたテーブルを構築するための最初の実証的なステップを提供する。
関連論文リスト
- Mitra: Mixed Synthetic Priors for Enhancing Tabular Foundation Models [85.64873567417396]
実世界のデータに対して,その多様性,特異性,および性能のために選択された合成前駆体の硬化した混合物をトレーニングしたTFMであるMitraを紹介する。
Mitraは、TabPFNv2やTabICLのような最先端のTFMを、分類と回帰のベンチマークで一貫して上回っている。
論文 参考訳(メタデータ) (2025-10-24T07:15:06Z) - Estimating Time Series Foundation Model Transferability via In-Context Learning [74.65355820906355]
時系列基礎モデル(TSFM)は、大規模な事前訓練を通じて強力なゼロショット予測を提供する。
微調整は、公開データに制限のあるドメインのパフォーマンス向上に依然として不可欠である。
モデル選択をコンテキスト内学習問題として再キャストする転送可能性推定フレームワークであるTimeTicを紹介する。
論文 参考訳(メタデータ) (2025-09-28T07:07:13Z) - Multi-Dimensional Summarization Agents with Context-Aware Reasoning over Enterprise Tables [0.0]
本稿では,大規模言語モデル(LLM)に基づくエージェントを用いて,複数の次元にわたる構造化エンタープライズデータを要約する新しいフレームワークを提案する。
本手法では,スライシング,分散検出,コンテキスト構築,LLMに基づく生成を行うエージェントを用いて,多次元データの抽出,解析,要約を行うマルチエージェントパイプラインを提案する。
我々は、Kaggleデータセットのフレームワークを評価し、ベースラインテーブルの要約アプローチよりも忠実さ、妥当性、および洞察品質を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2025-08-10T05:27:42Z) - A Pre-training Framework for Relational Data with Information-theoretic Principles [57.93973948947743]
本稿では,リレーショナルグラフ上の集合に基づくアグリゲーションを通じて,監視信号を構成する新しい事前学習フレームワークであるTask Vector Estimation (TVE)を紹介する。
TVEは従来のトレーニング前のベースラインを一貫して上回っている。
本研究は,関係データベース上での予測モデルの設計原則として,タスクの不均一性と時間構造を符号化する事前学習目的を提唱する。
論文 参考訳(メタデータ) (2025-07-14T00:17:21Z) - Context Pooling: Query-specific Graph Pooling for Generic Inductive Link Prediction in Knowledge Graphs [55.918039693545616]
本稿では,知識グラフにおけるリンク予測に対するGNNモデルの有効性を高めるために,コンテキストプーリングという新しい手法を提案する。
提案手法は,3つのパブリック・トランスダクティブおよびインダクティブ・データセット上の2つの最先端(SOTA)モデルに適用することにより,汎用的評価を行う。
論文 参考訳(メタデータ) (2025-07-10T09:54:37Z) - Less can be more for predicting properties with large language models [5.561723952524538]
本稿では,座標分類データの座標情報から学習できる大規模言語モデルの限界について報告する。
LLMはカテゴリパターンに長けながら座標情報の取得に一貫して失敗していることがわかった。
本研究は, 構造効果に支配される材料特性予測タスクにおける即時的な実践的意味を示唆するものである。
論文 参考訳(メタデータ) (2024-06-25T05:45:07Z) - Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Temporal Knowledge Graph Forecasting Without Knowledge Using In-Context
Learning [23.971206470486468]
本稿では,関連する歴史的事実をプロンプトに変換し,トークン確率を用いてランキング予測を生成する枠組みを提案する。
驚いたことに、LLMは最先端のTKGモデルと同等に動作している。
また,エンティティ/リレーション名の代わりに数値指標を用いると,性能に悪影響を及ぼさないことも判明した。
論文 参考訳(メタデータ) (2023-05-17T23:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。