論文の概要: BERT Meets Relational DB: Contextual Representations of Relational
Databases
- arxiv url: http://arxiv.org/abs/2104.14914v1
- Date: Fri, 30 Apr 2021 11:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 19:21:30.715443
- Title: BERT Meets Relational DB: Contextual Representations of Relational
Databases
- Title(参考訳): BERTがリレーショナルDBを発表:リレーショナルデータベースのコンテキスト表現
- Authors: Siddhant Arora, Vinayak Gupta, Garima Gaur, Srikanta Bedathur
- Abstract要約: 複数のテーブルからなる関係データベース上でエンティティの低次元表現を学習する問題に対処する。
これらの注意に基づくモデルを使用して、リレーショナルデータベース内のエンティティの埋め込みを学ぶ方法を検討します。
- 参考スコア(独自算出の注目度): 4.029818252558553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the problem of learning low dimension
representation of entities on relational databases consisting of multiple
tables. Embeddings help to capture semantics encoded in the database and can be
used in a variety of settings like auto-completion of tables, fully-neural
query processing of relational joins queries, seamlessly handling missing
values, and more. Current work is restricted to working with just single table,
or using pretrained embeddings over an external corpus making them unsuitable
for use in real-world databases. In this work, we look into ways of using these
attention-based model to learn embeddings for entities in the relational
database. We are inspired by BERT style pretraining methods and are interested
in observing how they can be extended for representation learning on structured
databases. We evaluate our approach of the autocompletion of relational
databases and achieve improvement over standard baselines.
- Abstract(参考訳): 本稿では,複数のテーブルからなる関係データベース上で,エンティティの低次元表現を学習する問題に対処する。
埋め込みはデータベースにエンコードされたセマンティクスをキャプチャするのに役立ち、テーブルの自動補完、リレーショナル結合の完全ニューラルなクエリ処理、欠落した値のシームレスな処理など、さまざまな設定で使用できる。
現在の作業は、単一のテーブルを使用するか、外部コーパスに事前トレーニングされた埋め込みを使用することで、現実世界のデータベースでの使用には適さない。
本研究では、これらの注意に基づくモデルを用いて、関係データベースのエンティティへの埋め込みを学習する。
我々はBERTスタイルの事前学習手法にインスパイアされ、構造化データベースでの表現学習にどのように拡張できるかを観察することに興味を持っている。
我々は、関係データベースの自動補完のアプローチを評価し、標準ベースラインよりも改善を達成する。
関連論文リスト
- Can Language Models Enable In-Context Database? [3.675766365690372]
大型言語モデル (LLM) は、様々なタスクを処理できる数ショットの学習者として登場している。
軽量で人間が読めるインコンテキストデータベースの特徴は、従来のデータベースの代替となる可能性がある。
論文 参考訳(メタデータ) (2024-11-04T05:25:39Z) - RB-SQL: A Retrieval-based LLM Framework for Text-to-SQL [48.516004807486745]
文脈内学習を伴う大規模言語モデル(LLM)は、テキスト・ツー・タスクの性能を大幅に改善した。
In-context prompt Engineering のための新しい検索ベースフレームワーク RB- を提案する。
実験により,我々のモデルは,公開データセットのBIRDとSpiderの競合ベースラインよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-07-11T08:19:58Z) - Relational Deep Learning: Graph Representation Learning on Relational
Databases [69.7008152388055]
複数のテーブルにまたがって配置されたデータを学ぶために、エンドツーエンドの表現アプローチを導入する。
メッセージパッシンググラフニューラルネットワークは、自動的にグラフを学習して、すべてのデータ入力を活用する表現を抽出する。
論文 参考訳(メタデータ) (2023-12-07T18:51:41Z) - GFS: Graph-based Feature Synthesis for Prediction over Relational
Databases [39.975491511390985]
グラフベース特徴合成(GFS)と呼ばれる新しいフレームワークを提案する。
GFSは関係データベースを異種グラフデータベースとして定式化する。
4つの実世界のマルチテーブルリレーショナルデータベースに対する実験では、GFSはリレーショナルデータベース用に設計された従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-04T16:54:40Z) - AskYourDB: An end-to-end system for querying and visualizing relational
databases using natural language [0.0]
複雑な自然言語をSQLに変換するという課題に対処する意味解析手法を提案する。
我々は、モデルが本番環境にデプロイされたときに重要な部分を占める様々な前処理と後処理のステップによって、最先端のモデルを修正した。
製品がビジネスで利用できるようにするために、クエリ結果に自動視覚化フレームワークを追加しました。
論文 参考訳(メタデータ) (2022-10-16T13:31:32Z) - Proton: Probing Schema Linking Information from Pre-trained Language
Models for Text-to-SQL Parsing [66.55478402233399]
本稿では,ポアンカー距離測定に基づく探索手法を用いて,関係構造を抽出する枠組みを提案する。
スキーマリンクの一般的なルールベース手法と比較して,探索関係は意味的対応をしっかりと捉えることができることがわかった。
我々のフレームワークは3つのベンチマークで最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2022-06-28T14:05:25Z) - A Graph Representation of Semi-structured Data for Web Question
Answering [96.46484690047491]
本稿では、半構造化データとそれらの関係の構成要素の体系的分類に基づいて、Webテーブルとリストのグラフ表現を提案する。
本手法は,最先端のベースラインに対してF1スコアを3.90ポイント向上させる。
論文 参考訳(メタデータ) (2020-10-14T04:01:54Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Table Search Using a Deep Contextualized Language Model [20.041167804194707]
本稿では、アドホックテーブル検索のタスクに、文脈化言語モデルBERTを用いる。
本稿では,テーブル検索における先行文献の特徴を取り入れた手法を提案し,BERTと共同で学習する。
論文 参考訳(メタデータ) (2020-05-19T04:18:04Z) - On Embeddings in Relational Databases [11.52782249184251]
低次元埋め込みを用いた関係データベースにおけるエンティティの分散表現学習の問題に対処する。
近年の埋め込み学習法は,すべてのテーブルの完全結合をリレーショナル化し,知識グラフとして表すことにより,データベースの完全非正規化を考慮に入れたナイーブな手法である。
本稿では,テーブル内の列の基本的なセマンティクスを利用して表現を学習する上で,関係結合と潜時関係を用いて,より優れた方法論を実証する。
論文 参考訳(メタデータ) (2020-05-13T17:21:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。