論文の概要: Learning to Generate Structured Output with Schema Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2502.18878v2
- Date: Thu, 06 Mar 2025 07:06:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:55:45.091199
- Title: Learning to Generate Structured Output with Schema Reinforcement Learning
- Title(参考訳): スキーマ強化学習による構造化出力の生成学習
- Authors: Yaxi Lu, Haolun Li, Xin Cong, Zhong Zhang, Yesai Wu, Yankai Lin, Zhiyuan Liu, Fangming Liu, Maosong Sun,
- Abstract要約: 本研究では,大規模言語モデル(LLM)の構造的生成能力について検討する。
最新のLLMはまだ有効な文字列を生成するのに苦労している。
我々のモデルでは、出力と下流の両方のタスクが大幅に改善されている。
- 参考スコア(独自算出の注目度): 83.09230124049667
- License:
- Abstract: This study investigates the structured generation capabilities of large language models (LLMs), focusing on producing valid JSON outputs against a given schema. Despite the widespread use of JSON in integrating language models with programs, there is a lack of comprehensive analysis and benchmarking of these capabilities. We explore various aspects of JSON generation, such as structure understanding, escaping, and natural language description, to determine how to assess and enable LLMs to generate valid responses. Building upon this, we propose SchemaBench features around 40K different JSON schemas to obtain and assess models' abilities in generating valid JSON. We find that the latest LLMs are still struggling to generate a valid JSON string. Moreover, we demonstrate that incorporating reinforcement learning with a Fine-grained Schema Validator can further enhance models' understanding of JSON schema, leading to improved performance. Our models demonstrate significant improvement in both generating JSON outputs and downstream tasks.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)の構造的生成能力について検討し,与えられたスキーマに対して有効なJSON出力を生成することに焦点を当てた。
プログラムと言語モデルの統合にJSONが広く使用されているにもかかわらず、これらの機能の包括的な分析とベンチマークは欠如している。
構造理解やエスケープ,自然言語記述など,JSON生成のさまざまな側面について検討し,LCMが有効な応答を生成する方法と有効性を決定する。
これに基づいて、SchemaBenchは40Kの異なるJSONスキーマを特徴付け、有効なJSONを生成するモデルの能力を取得し、評価する。
最新のLLMはまだ有効なJSON文字列を生成するのに苦労しています。
さらに、強化学習をきめ細かいスキーマバリケータに組み込むことで、モデルによるJSONスキーマの理解をさらに強化し、パフォーマンスが向上することを示した。
当社のモデルでは,JSON出力の生成と下流タスクの両方において,大幅な改善が示されています。
関連論文リスト
- Generating Structured Outputs from Language Models: Benchmark and Studies [24.017253364927086]
制約付き復号化は、世代間構造的出力を強制する分野において支配的な技術として出現している。
本稿では,制約に順応した出力の生成効率,生成した出力の多様な品質のカバレッジという,3つの重要な領域にわたる制約付き復号手法を評価するための評価フレームワークを提案する。
我々の研究は、制約付きデコードフレームワークを改善し、制約付きデコード構造生成を評価するための新しい標準を設定するための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-18T20:26:00Z) - Chunk-Distilled Language Modeling [25.238256586953487]
Chunk-Distilled Language Modeling (CD-LM)は、現在の大規模言語モデル(LLM)における2つの課題に対処するテキスト生成のアプローチである。
提案手法は,ディープネットワークベースのLCMと簡単な検索モジュールを組み合わせることで,単一のデコードステップでマルチトークンテキストチャンクを生成する。
論文 参考訳(メタデータ) (2024-12-31T08:32:15Z) - Structured Object Language Modeling (SoLM): Native Structured Objects Generation Conforming to Complex Schemas with Self-Supervised Denoising [7.59750288224997]
私たちは、言語モデリング問題(構造化オブジェクト言語モデリング)として問題を枠組み化します。
本稿では,そのようなオブジェクトの既存のデータセットからモデルを学習するための自己教師付きデノベーション手法を提案する。
実験結果から,提案手法は即時駆動型汎用LCMと一致し,性能が良くなることがわかった。
論文 参考訳(メタデータ) (2024-11-28T18:16:41Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Large Language Models Based JSON Parser Fuzzing for Bug Discovery and Behavioral Analysis [0.0]
この研究プロジェクトは、テストを強化するためにLLM(Large Language Models)を活用することに焦点を当てている。
主な目的は、オープンソースにおける潜在的なバグの発見にLLMを使用してテストケースとミュータントを生成することである。
根底にあるバグを明らかにし、振る舞いの多様性を発見(そして克服)することを目的としています。
論文 参考訳(メタデータ) (2024-10-29T07:23:43Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Explicitly Modeling Syntax in Language Models with Incremental Parsing
and a Dynamic Oracle [88.65264818967489]
我々は新しい構文認識型言語モデル、Syntactic Ordered Memory (SOM)を提案する。
モデルは、構造をインクリメンタルにモデル化し、標準言語モデルの条件付き確率設定を維持する。
実験により、SOMは言語モデリング、インクリメンタル解析、構文一般化テストにおいて強力な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-21T17:39:15Z) - A Framework for End-to-End Learning on Semantic Tree-Structured Data [4.241801379755808]
構造化データの一般的な形態は、私たちが「セマンティックツリー構造」と呼ぶものである。
汎用意味木構造データに基づくエンドツーエンド学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-13T18:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。