論文の概要: Selective Demonstrations for Cross-domain Text-to-SQL
- arxiv url: http://arxiv.org/abs/2310.06302v1
- Date: Tue, 10 Oct 2023 04:31:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 20:47:39.495230
- Title: Selective Demonstrations for Cross-domain Text-to-SQL
- Title(参考訳): クロスドメインテキストからsqlへの選択的デモンストレーション
- Authors: Shuaichen Chang, Eric Fosler-Lussier
- Abstract要約: テキスト内学習を伴う大規模言語モデル(LLM)は、ドメイン間テキスト・テキスト・テキスト・タスクにおいて顕著な一般化能力を示している。
ドメイン内の実例を組み込むことで,LLMの性能を大幅に向上することが確認された。
本稿では、ドメイン外サンプルと、ドメイン内サンプルを合成的に生成してデモを構築するためのデモ選択フレームワークODISを提案する。
- 参考スコア(独自算出の注目度): 12.288808992805494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) with in-context learning have demonstrated
impressive generalization capabilities in the cross-domain text-to-SQL task,
without the use of in-domain annotations. However, incorporating in-domain
demonstration examples has been found to greatly enhance LLMs' performance. In
this paper, we delve into the key factors within in-domain examples that
contribute to the improvement and explore whether we can harness these benefits
without relying on in-domain annotations. Based on our findings, we propose a
demonstration selection framework ODIS which utilizes both out-of-domain
examples and synthetically generated in-domain examples to construct
demonstrations. By retrieving demonstrations from hybrid sources, ODIS
leverages the advantages of both, showcasing its effectiveness compared to
baseline methods that rely on a single data source. Furthermore, ODIS
outperforms state-of-the-art approaches on two cross-domain text-to-SQL
datasets, with improvements of 1.1 and 11.8 points in execution accuracy,
respectively.
- Abstract(参考訳): コンテキスト内学習を伴う大規模言語モデル(LLM)は、ドメイン内のアノテーションを使わずに、クロスドメインのテキスト-SQLタスクにおいて印象的な一般化機能を示している。
しかし、ドメイン内の実例を組み込むことでLLMの性能を大幅に向上することが判明した。
本稿では、改善に寄与するドメイン内例における重要な要素を考察し、ドメイン内アノテーションを使わずにこれらの利点を活用できるかどうかを考察する。
そこで本研究では、ドメイン外サンプルと、ドメイン内サンプルを合成的に生成してデモを構築するためのデモ選択フレームワークODISを提案する。
ハイブリッドソースからデモを取得することで、ODISは両方の利点を活用し、単一のデータソースに依存するベースラインメソッドと比較して、その効果を示す。
さらにODISは2つのクロスドメインテキスト-SQLデータセットに対する最先端のアプローチよりも優れており、それぞれ1.1と11.8の精度が向上している。
関連論文リスト
- DeTriever: Decoder-representation-based Retriever for Improving NL2SQL In-Context Learning [19.93800175353809]
DeTrieverは、隠れた状態の重み付けを学習する新しいデモ検索フレームワークである。
提案手法は1ショットNL2タスクにおける最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2024-06-12T06:33:54Z) - UDA4Inst: Unsupervised Domain Adaptation for Instance Segmentation [5.982874955955054]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ラベル付き合成データからラベル付き実世界のデータに知識を伝達する。
UDA法は, セマンティックセグメンテーションやオブジェクト検出などのタスクにおいて, 実世界のドメイン(合成から実世界のドメイン)に対して顕著な性能を示す。
textbfUDA4Instは、インスタンスセグメンテーションにおいて、シンセグメンテーションからリアル UDA への強力なフレームワークである。
論文 参考訳(メタデータ) (2024-05-15T19:53:52Z) - Linguistic representations for fewer-shot relation extraction across
domains [1.4098628848491144]
本稿では,言語表現がドメイン間性能に与える影響を,数ショットの転送設定で検討する。
2つの領域における手続きテキストの3つのデータセットにおける関係抽出の課題に焦点をあてる。
これらのグラフを組み込むことで、数ショット転送の性能は大幅に向上するが、どちらのグラフもほぼ同等の効用を示す。
論文 参考訳(メタデータ) (2023-07-07T20:35:12Z) - In-Context Demonstration Selection with Cross Entropy Difference [95.21947716378641]
大規模言語モデル(LLM)は、ゼロショットタスクのパフォーマンスを改善するためにコンテキスト内デモを使用することができる。
テキスト内デモを選択するためのクロスエントロピー差分法(CED)を提案する。
論文 参考訳(メタデータ) (2023-05-24T05:04:00Z) - Domain-Expanded ASTE: Rethinking Generalization in Aspect Sentiment Triplet Extraction [67.54420015049732]
Aspect Sentiment Triplet extract (ASTE) は感情分析における課題であり、人間の感情に対するきめ細かい洞察を提供することを目的としている。
既存のベンチマークは2つのドメインに限定されており、目に見えないドメイン上でのモデルパフォーマンスを評価しない。
各種ドメインのサンプルに注釈を付けることでドメイン拡張ベンチマークを導入し,ドメイン内設定とドメイン外設定の両方でモデルの評価を可能にする。
論文 参考訳(メタデータ) (2023-05-23T18:01:49Z) - Bidirectional Generative Framework for Cross-domain Aspect-based
Sentiment Analysis [68.742820522137]
クロスドメインアスペクトベースの感情分析(ABSA)は、ソースドメインから知識を伝達することで、ターゲットドメイン上で様々なきめ細かい感情分析タスクを実行することを目的としている。
本稿では,多様なドメイン間ABSAタスクに対処するための統合双方向生成フレームワークを提案する。
我々のフレームワークは、テキストからラベルまでの方向とラベルからテキストへの方向の両方で生成モデルを訓練する。
論文 参考訳(メタデータ) (2023-05-16T15:02:23Z) - MADAv2: Advanced Multi-Anchor Based Active Domain Adaptation
Segmentation [98.09845149258972]
セマンティックセグメンテーションタスクに関するドメイン適応を支援するために,アクティブなサンプル選択を導入する。
これらのサンプルを手動でアノテートする作業量が少ないため、ターゲット領域分布の歪みを効果的に緩和することができる。
長期分布問題を緩和するために、強力な半教師付きドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T07:55:22Z) - Syntax-Guided Domain Adaptation for Aspect-based Sentiment Analysis [23.883810236153757]
ドメイン適応は、ドメイン間で共通の知識を伝達することによって、新しいドメインにおけるデータ不足問題を緩和するための一般的なソリューションである。
より効果的なクロスドメインABSAのための、SDAMと呼ばれる新しい構文誘導型ドメイン適応モデルを提案する。
我々のモデルは、クロスドメインEnd2EndABSAタスクのMicro-F1メトリックに関して、最先端のベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2022-11-10T10:09:33Z) - M2D2: A Massively Multi-domain Language Modeling Dataset [76.13062203588089]
ドメイン適応(LM)を研究するための細粒度多ドメインコーパスM2D2を提案する。
ウィキペディアとArXivから派生したカテゴリを用いて、各データソース内のドメインを22のグループに分類する。
我々は、LMをドメイン階層に沿って適用することの利点を示し、より少量のドメイン固有のデータに適応することで、ドメイン内のパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2022-10-13T21:34:52Z) - Unsupervised Contrastive Domain Adaptation for Semantic Segmentation [75.37470873764855]
クロスドメイン適応における特徴アライメントのためのコントラスト学習を導入する。
提案手法は、ドメイン適応のための最先端手法を一貫して上回る。
Cityscapesデータセットで60.2% mIoUを達成した。
論文 参考訳(メタデータ) (2022-04-18T16:50:46Z) - Con$^{2}$DA: Simplifying Semi-supervised Domain Adaptation by Learning
Consistent and Contrastive Feature Representations [1.2891210250935146]
Con$2$DAは、半教師付き学習の最近の進歩を半教師付きドメイン適応問題に拡張するフレームワークである。
我々のフレームワークは、与えられた入力に対してデータ変換を行うことで、関連するサンプルのペアを生成する。
我々は、異なる損失関数を使用して、関連するデータペアのサンプルの特徴表現間の一貫性を強制します。
論文 参考訳(メタデータ) (2022-04-04T15:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。