論文の概要: Leveraging Code to Improve In-context Learning for Semantic Parsing
- arxiv url: http://arxiv.org/abs/2311.09519v1
- Date: Thu, 16 Nov 2023 02:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 16:51:04.629510
- Title: Leveraging Code to Improve In-context Learning for Semantic Parsing
- Title(参考訳): セマンティック構文解析のための文脈内学習改善のためのコードの活用
- Authors: Ben Bogin, Shivanshu Gupta, Peter Clark, Ashish Sabharwal
- Abstract要約: In-context Learning (ICL) は、その少数ショットの性質と一般化の改善により、意味解析に魅力的なアプローチである。
我々は,(1)DSLの代わりにPythonなどの汎用プログラミング言語を用いた意味解析におけるICLの有効性を向上し,(2)ドメイン記述を構造化したプロンプトを増強する。
- 参考スコア(独自算出の注目度): 53.15789586679881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-context learning (ICL) is an appealing approach for semantic parsing due
to its few-shot nature and improved generalization. However, learning to parse
to rare domain-specific languages (DSLs) from just a few demonstrations is
challenging, limiting the performance of even the most capable LLMs. In this
work, we improve the effectiveness of ICL for semantic parsing by (1) using
general-purpose programming languages such as Python instead of DSLs, and (2)
augmenting prompts with a structured domain description that includes, e.g.,
the available classes and functions. We show that both these changes
significantly improve accuracy across three popular datasets. Combined, they
lead to dramatic improvements (e.g. 7.9% to 66.5% on SMCalFlow compositional
split), nearly closing the performance gap between easier i.i.d.\ and harder
compositional splits when used with a strong model, and reducing the need for a
large number of demonstrations. We find that the resemblance of the target
parse language to general-purpose code is a more important factor than the
language's popularity in pre-training corpora. Our findings provide an improved
methodology for building semantic parsers in the modern context of ICL with
LLMs.
- Abstract(参考訳): In-context Learning (ICL) は、その少数ショットの性質と一般化の改善により意味解析に魅力的なアプローチである。
しかし、いくつかの実演から稀なドメイン固有言語(DSL)を解析することを学ぶことは困難であり、最も有能なLLMのパフォーマンスさえ制限する。
本稿では,(1)dslの代わりにpythonのような汎用プログラミング言語を使用し,(2)利用可能なクラスや関数を含む構造化ドメイン記述でプロンプトを補完することにより,意味解析におけるiclの有効性を向上させる。
これら2つの変更が3つの一般的なデータセットの精度を大幅に向上することを示す。
これらを組み合わせることで、劇的な改善(例えば、smcalflowの組成分割で7.9%から66.5%)、より簡単なi.i.d.\とより難しい構成分割の間のパフォーマンスギャップをほぼ閉鎖し、多くのデモの必要性を減少させる。
対象のパース言語と汎用コードとの類似性は,事前学習コーパスで人気の高い言語よりも重要な要素であることがわかった。
本研究は,ILCの現代文脈における意味解析をLLMを用いて構築する手法を改良したものである。
関連論文リスト
- Crystal: Illuminating LLM Abilities on Language and Code [58.5467653736537]
本稿では,自然言語と符号化機能の統合性を高めるための事前学習戦略を提案する。
結果のモデルであるCrystalは、両方のドメインで顕著な能力を示します。
論文 参考訳(メタデータ) (2024-11-06T10:28:46Z) - Investigating Large Language Models for Complex Word Identification in Multilingual and Multidomain Setups [1.8377902806196766]
複雑な単語識別(CWI)は語彙的単純化作業において必須のステップであり、最近はそれ自体がタスクとなっている。
大規模言語モデル(LLM)は最近、ゼロ/フェーショット設定で目に見えないタスクを解決できる汎用性と能力のために、自然言語処理コミュニティで人気を博した。
Llama 2, Llama 3, Vicuna v1.5などのオープンソースモデルや, CWI, LCP, MWE設定におけるChatGPT-3.5-turbo, GPT-4oなどのクローズソースなど, LLMの使用状況について検討した。
論文 参考訳(メタデータ) (2024-11-03T22:31:02Z) - Enhancing LLM's Cognition via Structurization [41.13997892843677]
大規模言語モデル(LLM)は因果的かつシーケンシャルな視点で入力コンテキストを処理する。
本稿では,コンテキスト構造化という新しい概念を提案する。
具体的には、平易で秩序のない文脈文を、適切に順序付けされ階層的に構造化された要素に変換する。
論文 参考訳(メタデータ) (2024-07-23T12:33:58Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Analyzing and Adapting Large Language Models for Few-Shot Multilingual
NLU: Are We There Yet? [82.02076369811402]
教師付きファインチューニング(SFT)、教師付きインストラクションチューニング(SIT)、インコンテキストラーニング(ICL)は、3つの代替であり、事実上の標準的アプローチである。
提案手法は,6つの高・低リソース言語,3つの異なるNLUタスク,多種多様な言語とドメインのセットアップを用いて,3つのアプローチを網羅的かつ体系的に比較する。
そこで本研究では,教師あり指導のチューニングが,性能とリソース要件の最良のトレードオフであることを示す。
論文 参考訳(メタデータ) (2024-03-04T10:48:13Z) - Multi-level Contrastive Learning for Cross-lingual Spoken Language
Understanding [90.87454350016121]
コントラスト学習のための難解なサンプルを, あらゆるレベルで生成するコードスイッチング手法を開発した。
言語間知識伝達にラベルセマンティクスを利用するラベル認識ジョイントモデルを開発した。
論文 参考訳(メタデータ) (2022-05-07T13:44:28Z) - Integrating Language Guidance into Vision-based Deep Metric Learning [78.18860829585182]
埋め込み空間として意味的類似性を符号化した距離空間を学習することを提案する。
これらの空間は、トレーニング中に見られるもの以外のクラスに転送可能であるべきである。
これにより、学習された埋め込み空間は不完全な意味的コンテキストを符号化し、クラス間の意味的関係を誤って表現する。
論文 参考訳(メタデータ) (2022-03-16T11:06:50Z) - Applying Occam's Razor to Transformer-Based Dependency Parsing: What
Works, What Doesn't, and What is Really Necessary [9.347252855045125]
我々は,事前学習した埋め込みの選択と,グラフベースの依存性スキームでLSTM層を使用するかどうかについて検討する。
我々は,12言語中10言語に対して,新しい最先端の成果(LAS)を実現するため,シンプルだが広く適用可能なアーキテクチャと構成を提案する。
論文 参考訳(メタデータ) (2020-10-23T22:58:26Z) - Zero-Shot Cross-Lingual Transfer with Meta Learning [45.29398184889296]
英語以外の言語ではほとんど、あるいは全くデータがない場合に、複数の言語でのトレーニングモデルの設定を同時に検討する。
メタラーニングを用いて、この挑戦的な設定にアプローチできることが示される。
我々は、標準教師付きゼロショットのクロスランガルと、異なる自然言語理解タスクのための数ショットのクロスランガル設定を用いて実験を行った。
論文 参考訳(メタデータ) (2020-03-05T16:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。