論文の概要: JSON Whisperer: Efficient JSON Editing with LLMs
- arxiv url: http://arxiv.org/abs/2510.04717v1
- Date: Mon, 06 Oct 2025 11:36:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.832146
- Title: JSON Whisperer: Efficient JSON Editing with LLMs
- Title(参考訳): JSONウィスペラ: LLMによる効率的なJSON編集
- Authors: Sarel Duanis, Asnat Greenstein-Messica, Eliya Habba,
- Abstract要約: 大規模言語モデル(LLM)は、自然言語コマンドを通じて文書を修正できるが、現在のアプローチでは、編集毎に構造全体を再生し、計算の効率が低下する。
提案するWhispererは,完全なドキュメントではなく,必要な修正のみを表現したRFC 6902の差分パッチを生成するためのフレームワークである。
- 参考スコア(独自算出の注目度): 1.0535472555708638
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) can modify JSON documents through natural language commands, but current approaches regenerate entire structures for each edit, resulting in computational inefficiency. We present JSON Whisperer, a framework that enables LLMs to generate RFC 6902 diff patches-expressing only the necessary modifications-rather than complete documents. We identify two key challenges in patch-based editing: (1) LLMs often miss related updates when generating isolated patches, and (2) array manipulations require tracking index shifts across operations, which LLMs handle poorly. To address these issues, we introduce EASE (Explicitly Addressed Sequence Encoding), which transforms arrays into dictionaries with stable keys, eliminating index arithmetic complexities. Our evaluation shows that patch generation with EASE reduces token usage by 31% while maintaining edit quality within 5% of full regeneration with particular gains for complex instructions and list manipulations. The dataset is available at: https://github.com/emnlp2025/JSON-Whisperer/
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語コマンドを通じてJSONドキュメントを修正することができるが、現在のアプローチでは、編集毎に構造全体を再生し、計算の効率が低下する。
提案するJSON Whispererは,完全なドキュメントではなく,必要な修正のみを表現したRFC 6902の差分パッチを生成するためのフレームワークである。
パッチベースの編集では,(1)LLMは分離されたパッチを生成する際に関連アップデートを見逃しがちであり,(2)配列操作では,LLMの処理が不十分なオペレーション間のインデックスシフトをトラッキングする必要がある。
これらの問題に対処するために、配列を安定なキー付き辞書に変換するEASE(Explicitly Addressed Sequence Encoding)を導入し、インデックス演算の複雑さを排除した。
評価の結果,EASEによるパッチ生成は,複雑な命令やリスト操作を行う場合の処理精度を5%に抑えつつ,トークン使用率を31%削減することがわかった。
データセットは以下の通りである。 https://github.com/emnlp2025/JSON-Whisperer/
関連論文リスト
- DeepJSONEval: Benchmarking Complex Nested JSON Data Mining for Large Language Models [6.653834890554154]
多層ネスト構造は、データをキーと値のペア、配列、ネストオブジェクトに整理する。
例えば、ニュース集約では、オブジェクトは記事のメタデータ(タイトル、著者、日付)、コンテンツ(テキスト、マルチメディア)、マルチメディア情報(マルチダイアログ、キャプション)を階層的にネストすることができる。
DeepJSONEvalは、2100のマルチドメインインスタンスと深いネスト構造を特徴とする新しいベンチマークで、難易度によって分類される。
論文 参考訳(メタデータ) (2025-09-30T08:18:20Z) - Learning to Generate Structured Output with Schema Reinforcement Learning [83.09230124049667]
本研究では,大規模言語モデル(LLM)の構造的生成能力について検討する。
最新のLLMはまだ有効な文字列を生成するのに苦労している。
我々のモデルでは、出力と下流の両方のタスクが大幅に改善されている。
論文 参考訳(メタデータ) (2025-02-26T06:45:29Z) - AnyEdit: Edit Any Knowledge Encoded in Language Models [69.30638272162267]
大規模言語モデル(LLM)のための新しい自動回帰編集パラダイムであるAnyEditを提案する。
長い形式の知識を逐次チャンクに分解し、各チャンク内のキートークンを反復的に編集し、一貫性と正確な出力を保証する。
UnKEBench、AKEW、そして我々の長文の多様な知識のための新しいEditEverythingデータセットを含むベンチマークでは、強いベースラインを21.5%上回っている。
論文 参考訳(メタデータ) (2025-02-08T16:18:37Z) - SWE-Fixer: Training Open-Source LLMs for Effective and Efficient GitHub Issue Resolution [56.9361004704428]
大規模言語モデル(LLM)は、様々な複雑なタスクにまたがる顕著な習熟度を示している。
SWE-Fixerは、GitHubの問題を効果的かつ効率的に解決するために設計された、新しいオープンソースフレームワークである。
我々は,SWE-Bench LiteとVerifiedベンチマークに対するアプローチを評価し,オープンソースモデル間の競合性能を実現する。
論文 参考訳(メタデータ) (2025-01-09T07:54:24Z) - IterGen: Iterative Semantic-aware Structured LLM Generation with Backtracking [5.174301428591665]
大規模言語モデル(LLM)は自然言語やコード生成といったタスクに広く使われている。
そのアウトプットはしばしば幻覚、毒性、誤った結果などの問題に悩まされる。
構造化LLM生成のための現在のライブラリは、バックトラックをサポートしない左から右へのデコードに依存している。
IterGenは、文法記号に基づいて生成された出力の前方と後方の両方を移動可能にする。
論文 参考訳(メタデータ) (2024-10-09T16:21:38Z) - ELDER: Enhancing Lifelong Model Editing with Mixture-of-LoRA [55.697627106315004]
大規模言語モデル(LLM)は、特定の知識を効率的に更新し、事実の誤りを避けるためにモデル編集を必要とする。
従来のアプローチでは、元のパラメータを凍結し、知識更新毎に新しいパラメータを個別に割り当てることで、シーケンシャルな編集を管理する。
本稿では,データとアダプタを連続的に関連付ける新しい手法であるELDERを提案する。
論文 参考訳(メタデータ) (2024-08-19T02:27:00Z) - Robustness of LLMs to Perturbations in Text [2.0670689746336]
大規模言語モデル(LLM)は素晴らしいパフォーマンスを示していますが、現実のデータでは避けられないノイズを処理できますか?
この研究は、LLMのテキストのモルフォロジー変化に対するレジリエンスを調査することによって、この重要な問題に取り組む。
以上の結果から, LLM は, 一般の信念とは対照的に, 文中での騒々しい摂動に対して静かであることが明らかとなった。
論文 参考訳(メタデータ) (2024-07-12T04:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。