論文の概要: Flexible Grammar-Based Constrained Decoding for Language Models
- arxiv url: http://arxiv.org/abs/2305.13971v1
- Date: Tue, 23 May 2023 11:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 16:49:23.599183
- Title: Flexible Grammar-Based Constrained Decoding for Language Models
- Title(参考訳): フレキシブル文法に基づく言語モデルのための制約付きデコーディング
- Authors: Saibo Geng, Martin Josifosky, Maxime Peyrard, Robert West
- Abstract要約: 本稿では,形式的な文法制約を伴って復号化のステップを強化することを提案する。
ビームサーチでは、文法生成規則に準拠した有効なトークン継続のみを考慮する。
我々は,多くのNLPタスクの出力を形式言語として表現できることを実証した。
- 参考スコア(独自算出の注目度): 33.3965225064554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs have shown impressive few-shot performance across many tasks. However,
they still struggle when it comes to generating complex output structures, such
as those required for Information Extraction. This limitation stems from the
fact that LLMs, without finetuning, tend to generate free text rather than
precise structures that follow a specific grammar. In this work, we propose to
enrich the decoding step with formal grammar constraints. During beam search,
only valid token continuations compliant with the grammar production rules are
considered. This enforces the generation of valid sequences exclusively. Our
framework is highly general and flexible, allowing any Context-Free Grammar
(CFG) to be integrated into our custom constrained beam search implementation.
We demonstrate that the outputs of many NLP tasks can be represented as formal
languages, making them suitable for direct use in our framework. For task where
the output space is dependent on the input, we propose input-dependent grammars
to constrain the generation. We conducted experiments with two challenging
tasks involving large alphabets in their grammar (Wikidata entities and
relations): information extraction and entity disambiguation. Our results with
LLaMA models clearly indicate that grammar-constrained decoding outperforms
few-shot prompting without constraints, and even competes with task-specific
finetuned models. These findings suggest that integrating grammar-based
constraints during decoding holds great promise in making LLMs reliably produce
structured outputs, especially in setting where training data is scarce and
finetuning is expensive.
- Abstract(参考訳): LLMは多くのタスクで印象的な数ショットのパフォーマンスを示している。
しかし、情報抽出に必要な複雑な出力構造を生成するという点では、依然として苦労している。
この制限は、LLMが微調整なしで特定の文法に従う正確な構造よりも自由テキストを生成する傾向があるという事実に由来する。
本稿では,形式的文法制約により復号化ステップを強化することを提案する。
ビーム探索中、文法生成規則に準拠した有効なトークン継続のみが考慮される。
これは有効なシーケンスを排他的に生成する。
フレームワークは非常に汎用的で柔軟性があり、任意のContext-Free Grammar(CFG)をカスタム制約ビームサーチ実装に統合することができます。
我々は,多くのNLPタスクの出力を形式言語として表現できることを示す。
出力空間が入力に依存するタスクに対しては,生成を制約する入力依存文法を提案する。
文法における大きなアルファベット (wikidata entities and relations) を含む2つの課題(情報抽出とエンティティの曖昧さ)を用いて実験を行った。
LLaMAモデルを用いた結果から,文法制約付き復号化は制約のない数発のプロンプトよりも優れており,タスク固有の微調整モデルと競合することが明らかとなった。
これらの結果から,デコード中に文法に基づく制約を統合することは,llmが構造化アウトプットを確実に生成する上で,特にトレーニングデータが不足し,微調整が高価である場合に大きな期待が持てることが示唆された。
関連論文リスト
- Graph-DPEP: Decomposed Plug and Ensemble Play for Few-Shot Document Relation Extraction with Graph-of-Thoughts Reasoning [34.85741925091139]
Graph-DPEPフレームワークは、自然言語で提示された三重項の説明思想の背景にある。
我々は,サブグラフに埋め込まれた推論的思考を活用することで,型リスト全体の「アンサンブルプレイ」生成を開発する。
論文 参考訳(メタデータ) (2024-11-05T07:12:36Z) - Domain-Specific Shorthand for Generation Based on Context-Free Grammar [0.0]
YAMLやXMLなどのフォーマットで構造化データを生成することは、Generative AI(GenAI)アプリケーションにおいて重要なタスクである。
文脈自由文法(CFG)を基盤としたドメイン特化短文形式(DSS)を導入する。
本稿では,DSSとそれに付随するCFGの開発について概説する。
論文 参考訳(メタデータ) (2024-06-14T23:26:41Z) - Grammar-Aligned Decoding [30.972850034752884]
LLM(Large Language Models)は、プログラムコード、数学的公式、整形されたマークアップなどの高度に構造化された出力を確実に生成するのに苦労する。
制約付き復号法は、LLMが出力できるトークンを各ステップで厳格に制限し、出力が与えられた制約と一致することを保証することによってこの問題を軽減する。
本稿では,GCD技術がLLMの分布を歪め,文法的だがLLMに比例しない確率で現れる出力を導出することを示す。
論文 参考訳(メタデータ) (2024-05-31T17:39:15Z) - A Simple but Effective Approach to Improve Structured Language Model
Output for Information Extraction [11.165093163378152]
大規模言語モデル(LLM)は、命令に従って非構造化自然言語を生成する際、印象的な能力を示した。
本稿では,その構造的テキスト生成能力を高めるために,効率的なG&O手法を提案する。
論文 参考訳(メタデータ) (2024-02-20T20:42:02Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Grammar Prompting for Domain-Specific Language Generation with Large
Language Models [40.831045850285776]
大規模言語モデル(LLM)は、コンテキスト内サンプルのごく一部から、幅広い自然言語タスクを実行することを学べる。
本稿では,LLMが外部知識やドメイン固有の制約を利用できるための簡単な手法であるEmphgrammar promptingを提案する。
論文 参考訳(メタデータ) (2023-05-30T17:26:01Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部動作を理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがこのCFG言語を正確に学習し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - LeTI: Learning to Generate from Textual Interactions [60.425769582343506]
本稿では,テキストインタラクション(LETI)から学習するLMの可能性を,バイナリラベルによる正当性をチェックするだけでなく,テキストフィードバックを通じて出力中のエラーをピンポイントし,説明する。
私たちの焦点はコード生成タスクであり、そこではモデルが自然言語命令に基づいてコードを生成する。
LETIは、目的のLMを用いて、自然言語命令、LM生成プログラム、テキストフィードバックの結合に基づいて、モデルを反復的に微調整する。
論文 参考訳(メタデータ) (2023-05-17T15:53:31Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - Language Models of Code are Few-Shot Commonsense Learners [106.1531522893209]
自然言語入力が与えられた場合、目標はイベントや推論グラフなどのグラフを生成することだ。
既存のアプローチは、出力グラフをノードとエッジのフラットリストとしてシリアライズする。
コード生成タスクとして構造化コモンセンス推論タスクをフレーム化する場合、事前学習されたコードLMは自然言語のLMよりも構造化コモンセンス推論タスクの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-13T16:09:36Z) - Improving Mandarin End-to-End Speech Recognition with Word N-gram
Language Model [57.92200214957124]
外部言語モデル(LM)は、エンドツーエンド(E2E)自動音声認識(ASR)システムの音声認識性能を向上させることができる。
単語レベルの格子をオンザフライで構築し,可能なすべての単語列を考慮可能な,新しい復号アルゴリズムを提案する。
提案手法は,N-gram LMやニューラルネットワーク LM など,サブワードレベルのLMを一貫して上回る。
論文 参考訳(メタデータ) (2022-01-06T10:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。