論文の概要: Investigating the Impact of Data Contamination of Large Language Models
in Text-to-SQL Translation
- arxiv url: http://arxiv.org/abs/2402.08100v1
- Date: Mon, 12 Feb 2024 22:35:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 17:19:35.056463
- Title: Investigating the Impact of Data Contamination of Large Language Models
in Text-to-SQL Translation
- Title(参考訳): テキスト-SQL翻訳における大規模言語モデルのデータ汚染の影響の検討
- Authors: Federico Ranaldi, Elena Sofia Ruzzetti, Dario Onorati, Leonardo
Ranaldi, Cristina Giannone, Andrea Favalli, Raniero Romagnoli, Fabio Massimo
Zanzotto
- Abstract要約: テキスト・コード生成タスクにおけるGPT-3.5の性能に及ぼすデータ汚染の影響について検討する。
その結果,不慣れなTermiteデータセット上でのGPT-3.5の大幅な性能低下が示唆された。
- 参考スコア(独自算出の注目度): 1.6647755388646919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding textual description to generate code seems to be an achieved
capability of instruction-following Large Language Models (LLMs) in zero-shot
scenario. However, there is a severe possibility that this translation ability
may be influenced by having seen target textual descriptions and the related
code. This effect is known as Data Contamination.
In this study, we investigate the impact of Data Contamination on the
performance of GPT-3.5 in the Text-to-SQL code-generating tasks. Hence, we
introduce a novel method to detect Data Contamination in GPTs and examine
GPT-3.5's Text-to-SQL performances using the known Spider Dataset and our new
unfamiliar dataset Termite. Furthermore, we analyze GPT-3.5's efficacy on
databases with modified information via an adversarial table disconnection
(ATD) approach, complicating Text-to-SQL tasks by removing structural pieces of
information from the database. Our results indicate a significant performance
drop in GPT-3.5 on the unfamiliar Termite dataset, even with ATD modifications,
highlighting the effect of Data Contamination on LLMs in Text-to-SQL
translation tasks.
- Abstract(参考訳): コードを生成するためのテキスト記述を理解することは、ゼロショットシナリオで命令追従するLarge Language Model(LLM)の達成された能力であるようだ。
しかし、この翻訳能力は、対象とするテキスト記述とその関連コードに影響を与えている可能性が極めて高い。
この効果はデータ汚染と呼ばれる。
本研究では,テキストからSQLへのコード生成タスクにおけるGPT-3.5の性能に及ぼすデータ汚染の影響について検討する。
そこで我々は,GPTにおけるデータ汚染を検出する新しい手法を導入し,既知のスパイダーデータセットと新しい未知のデータセットTermiteを用いて,GPT-3.5のテキスト・トゥ・SQLパフォーマンスを検証した。
さらに,データベースから構造化情報を取り除き,テキスト・トゥ・SQLタスクを複雑にすることで,逆テーブル・ディコネクション(ATD)アプローチによる修正情報を持つデータベース上でのGPT-3.5の有効性を解析する。
この結果から,ATD の修正であっても,GPT-3.5 が不慣れな Termite データセット上で顕著な性能低下を示し,テキスト-SQL 翻訳タスクにおける LLM に対するデータ汚染の影響を強調した。
関連論文リスト
- EPI-SQL: Enhancing Text-to-SQL Translation with Error-Prevention Instructions [0.5755004576310334]
本稿では,Large Language Models(LLMs)を利用した新しい手法フレームワークであるEPIを導入し,テキスト・ツー・ワン・タスクの性能向上を図る。
EPI-は4段階のプロセスで動作し、一般的なエラー防止命令(EPI)を生成する。
タスク固有のガイダンスを提供し、手元にあるタスクの潜在的なエラーを回避することができる。
論文 参考訳(メタデータ) (2024-04-21T03:52:46Z) - Reboost Large Language Model-based Text-to-SQL, Text-to-Python, and
Text-to-Function -- with Real Applications in Traffic Domain [14.194710636073808]
これまでのSOTA(State-of-the-art)手法は、スパイダーデータセット上で顕著な実行精度を達成した。
より適応的で汎用的なプロンプト手法を開発し、クエリの書き直しとsqlの高速化を行う。
ビジネスデータセットの実行精度については,SOTA法が21.05,我々のアプローチが65.79であった。
論文 参考訳(メタデータ) (2023-10-28T16:32:40Z) - Text-to-SQL Empowered by Large Language Models: A Benchmark Evaluation [76.76046657162306]
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
大規模言語モデル(LLM)はテキスト・ツー・タスクの新しいパラダイムとして登場した。
論文 参考訳(メタデータ) (2023-08-29T14:59:54Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - LLM-powered Data Augmentation for Enhanced Cross-lingual Performance [24.20730298894794]
本稿では,Large Language Models (LLMs) を利用したコモンセンス推論データセットにおけるデータ拡張の可能性について検討する。
これを実現するために、私たちは、XCOPA、XWinograd、XStoryClozeの3つのデータセットを増強するために、Dlly-v2、StableVicuna、ChatGPT、GPT-4といういくつかのLCMを利用する。
合成データを用いて,小型多言語モデルmBERTとXLMRの有効性を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:33:27Z) - Can LLM Already Serve as A Database Interface? A BIg Bench for
Large-Scale Database Grounded Text-to-SQLs [89.68522473384522]
テキストから効率のよいタスクをベースとした大規模データベースのための大規模なベンチマークであるBirdを紹介します。
データベースの値に重点を置いていると、汚いデータベースコンテンツに対する新たな課題が浮き彫りになる。
最も効果的なテキストから効率のよいモデルであるChatGPTでさえ、実行精度はわずか40.08%である。
論文 参考訳(メタデータ) (2023-05-04T19:02:29Z) - Conversational Text-to-SQL: An Odyssey into State-of-the-Art and
Challenges Ahead [6.966624873109535]
State-of-the-art (SOTA) システムは、T5ファミリーのような大規模で訓練済み、微調整された言語モデルを使用する。
トレーニング中に個別のプロンプトを持つコヒーレントなタスクに対するマルチタスク(MT)により、特殊なテキストから3つのモデルよりも改善する。
我々は、領域と構成の一般化に起因する誤りを分解する研究を行う。
論文 参考訳(メタデータ) (2023-02-21T23:15:33Z) - ASDOT: Any-Shot Data-to-Text Generation with Pretrained Language Models [82.63962107729994]
Any-Shot Data-to-Text (ASDOT)は、多様な設定に柔軟に適用可能な新しいアプローチである。
データ曖昧化と文の融合という2つのステップから構成される。
実験の結果, ASDOT はベースラインよりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-10-09T19:17:43Z) - GATE: Graph Attention Transformer Encoder for Cross-lingual Relation and
Event Extraction [107.8262586956778]
言語に依存しない文表現を学習するために、普遍的な依存解析を伴うグラフ畳み込みネットワーク(GCN)を導入する。
GCNは、長い範囲の依存関係を持つ単語をモデル化するのに苦労する。
そこで本研究では,構文的距離の異なる単語間の依存関係を学習するための自己認識機構を提案する。
論文 参考訳(メタデータ) (2020-10-06T20:30:35Z) - Quantifying Data Augmentation for LiDAR based 3D Object Detection [139.64869289514525]
そこで本研究では,光検出・ランドング(LiDAR)に基づく3次元物体検出において一般的に使用される,様々なデータ拡張手法について光を当てた。
本研究では,グローバルな拡張技術がシーン全体の点雲に適用され,ローカルな拡張技術がシーン内の個々のオブジェクトに属する点にのみ適用される,様々なグローバルおよびローカルな拡張技術について検討する。
以上の結果から,2種類のデータ拡張はパフォーマンス向上につながるが,個々のオブジェクト翻訳などの拡張技術は非生産的であり,全体的なパフォーマンスを損なう可能性があることがわかった。
論文 参考訳(メタデータ) (2020-04-03T16:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。