論文の概要: rLLM: Relational Table Learning with LLMs
- arxiv url: http://arxiv.org/abs/2407.20157v1
- Date: Mon, 29 Jul 2024 16:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 13:05:24.773991
- Title: rLLM: Relational Table Learning with LLMs
- Title(参考訳): rLLM: LLMによる関係表学習
- Authors: Weichen Li, Xiaotong Huang, Jianwu Zheng, Zheng Wang, Chaokun Wang, Li Pan, Jianhua Li,
- Abstract要約: 本稿では,Large Language Models (LLM) を用いたテーブルラーニング (RTL) 用に設計された PyTorch ライブラリ rLLM (reLLM) を紹介する。
中心となる考え方は、最先端のニューラルネットワーク、LLM、テーブルネットワークを標準化されたモジュールに分解することである。
rLLM の使用法を説明するため,bftextBRIDGE というシンプルな RTL 手法を提案する。
- 参考スコア(独自算出の注目度): 17.960347297159323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce rLLM (relationLLM), a PyTorch library designed for Relational Table Learning (RTL) with Large Language Models (LLMs). The core idea is to decompose state-of-the-art Graph Neural Networks, LLMs, and Table Neural Networks into standardized modules, to enable the fast construction of novel RTL-type models in a simple "combine, align, and co-train" manner. To illustrate the usage of rLLM, we introduce a simple RTL method named \textbf{BRIDGE}. Additionally, we present three novel relational tabular datasets (TML1M, TLF2K, and TACM12K) by enhancing classic datasets. We hope rLLM can serve as a useful and easy-to-use development framework for RTL-related tasks. Our code is available at: https://github.com/rllm-project/rllm.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) を用いた関係表学習 (RTL) 用に設計された PyTorch ライブラリ rLLM (relationLLM) を紹介する。
中心となる考え方は、最先端のグラフニューラルネットワーク、LLM、テーブルニューラルネットワークを標準化されたモジュールに分解し、シンプルな"組合せ、整列、コトレイン"の方法で新しいRTL型モデルの高速な構築を可能にすることである。
rLLM の使用法を説明するために,textbf{BRIDGE} というシンプルな RTL 法を導入する。
さらに,古典的データセットの強化による3つの新しい関係表データセット(TML1M, TLF2K, TACM12K)を提案する。
rLLM が RTL 関連のタスクに有用で使いやすい開発フレームワークとして機能することを願っている。
私たちのコードは、https://github.com/rllm-project/rllm.comで利用可能です。
関連論文リスト
- Personalized News Recommendation System via LLM Embedding and Co-Occurrence Patterns [6.4561443264763625]
ニュースレコメンデーション(NR)では、システムは大量のクリックされたニューステキストを理解し処理し、候補のニュースクリックの確率を推測しなければならない。
本稿では,LLM埋め込みと共起パターン(LECOP)を用いた新しいNRアルゴリズムを提案する。
大規模実験により,提案手法の優れた性能を実証した。
論文 参考訳(メタデータ) (2024-11-09T03:01:49Z) - Tabular Transfer Learning via Prompting LLMs [52.96022335067357]
大規模言語モデル(LLM)を用いたラベル付き(あるいは異種)ソースデータを利用した新しいフレームワークPrompt to Transfer (P2T)を提案する。
P2Tは、ターゲットタスク機能と強く相関しているソースデータセットの列の特徴を特定し、ターゲットタスクに関連する例を作成し、プロンプトの擬似宣言を生成する。
論文 参考訳(メタデータ) (2024-08-09T11:30:52Z) - Text-like Encoding of Collaborative Information in Large Language Models for Recommendation [58.87865271693269]
BinLLMはLarge Language Models for Recommendation (LLMRec)とシームレスに連携する新しい手法である。
BinLLMは、外部モデルからの協調的な埋め込みをバイナリシーケンスに変換する。
BinLLMは、ドット決定記法を用いてバイナリシーケンスを圧縮するオプションを提供し、過度に長い長さを避ける。
論文 参考訳(メタデータ) (2024-06-05T12:45:25Z) - Towards Modular LLMs by Building and Reusing a Library of LoRAs [64.43376695346538]
マルチタスクデータに対して最適なアダプタライブラリを構築する方法について検討する。
モデルベースクラスタリング(MBC)を導入し,パラメータの類似性に基づいてタスクをグループ化する手法を提案する。
ライブラリを再使用するために,最も関連性の高いアダプタの動的選択を可能にする新しいゼロショットルーティング機構であるArrowを提案する。
論文 参考訳(メタデータ) (2024-05-18T03:02:23Z) - Large Language Models Can Automatically Engineer Features for Few-Shot Tabular Learning [35.03338699349037]
本稿では,機能エンジニアとして大規模言語モデルを用いる新しい文脈内学習フレームワークFeatLLMを提案する。
FeatLLMは高品質なルールを生成し、TabLLMやSTUNTなどよりも大幅に(平均で10%)優れている。
論文 参考訳(メタデータ) (2024-04-15T06:26:08Z) - KnowCoder: Coding Structured Knowledge into LLMs for Universal Information Extraction [59.039355258637315]
コード生成によるユニバーサル情報抽出(UIE)を行うためのLarge Language Model(LLM)であるKnowCoderを提案する。
KnowCoderは、異なるスキーマをPythonクラスに一様に変換するコードスタイルのスキーマ表現メソッドを導入した。
KnowCoderには、2フェーズの学習フレームワークがあり、コード事前トレーニングによるスキーマ理解能力と、命令チューニングによるスキーマ追従能力を向上させる。
論文 参考訳(メタデータ) (2024-03-12T14:56:34Z) - Small Language Model Is a Good Guide for Large Language Model in Chinese
Entity Relation Extraction [13.344709924683471]
本稿では,モデルコラボレーションフレームワークSLCoLMを提案する。
textit-Training-Guide-Predict' 戦略を用いて,事前学習言語モデル (PLM) と大規模言語モデル (LLM) の強みを組み合わせる。
関係型に富んだREデータセットに対する実験により,本論文のアプローチが長い関係型のREを促進することを示す。
論文 参考訳(メタデータ) (2024-02-22T08:26:56Z) - Relational Deep Learning: Graph Representation Learning on Relational
Databases [69.7008152388055]
複数のテーブルにまたがって配置されたデータを学ぶために、エンドツーエンドの表現アプローチを導入する。
メッセージパッシンググラフニューラルネットワークは、自動的にグラフを学習して、すべてのデータ入力を活用する表現を抽出する。
論文 参考訳(メタデータ) (2023-12-07T18:51:41Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。