論文の概要: GenerationPrograms: Fine-grained Attribution with Executable Programs
- arxiv url: http://arxiv.org/abs/2506.14580v1
- Date: Tue, 17 Jun 2025 14:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.526359
- Title: GenerationPrograms: Fine-grained Attribution with Executable Programs
- Title(参考訳): GenerationPrograms: 実行可能なプログラムによるきめ細かい属性
- Authors: David Wan, Eran Hirsch, Elias Stengel-Eskin, Ido Dagan, Mohit Bansal,
- Abstract要約: コードエージェント」アーキテクチャの最近の進歩に触発されたモジュラー生成フレームワークであるGenerationProgramsを導入する。
GenerationProgramsは、プロセスを2つの異なるステージに分解する: まず、クエリに明示的に調整されたモジュール形式のテキスト操作からなる実行可能なプログラムプランを作成し、次に、プログラムの指定した命令に従ってこれらの操作を実行し、最終的な応答を生成する。
経験的評価は、生成プログラムは文書レベルと文レベルの両方の属性品質を著しく改善することを示している。
- 参考スコア(独自算出の注目度): 72.23792263905372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent large language models (LLMs) achieve impressive performance in source-conditioned text generation but often fail to correctly provide fine-grained attributions for their outputs, undermining verifiability and trust. Moreover, existing attribution methods do not explain how and why models leverage the provided source documents to generate their final responses, limiting interpretability. To overcome these challenges, we introduce a modular generation framework, GenerationPrograms, inspired by recent advancements in executable "code agent" architectures. Unlike conventional generation methods that simultaneously generate outputs and attributions or rely on post-hoc attribution, GenerationPrograms decomposes the process into two distinct stages: first, creating an executable program plan composed of modular text operations (such as paraphrasing, compression, and fusion) explicitly tailored to the query, and second, executing these operations following the program's specified instructions to produce the final response. Empirical evaluations demonstrate that GenerationPrograms significantly improves attribution quality at both the document level and sentence level across two long-form question-answering tasks and a multi-document summarization task. We further demonstrate that GenerationPrograms can effectively function as a post-hoc attribution method, outperforming traditional techniques in recovering accurate attributions. In addition, the interpretable programs generated by GenerationPrograms enable localized refinement through modular-level improvements that further enhance overall attribution quality.
- Abstract(参考訳): 最近の大規模言語モデル(LLM)は、ソース条件付きテキスト生成において印象的な性能を達成するが、しばしばその出力に対してきめ細かい属性を正しく提供できず、検証可能性や信頼を損なう。
さらに、既存の属性法では、モデルが提供されたソース文書を利用して最終応答を生成し、解釈可能性を制限する方法と理由を説明できない。
これらの課題を克服するために、我々は、実行可能な"コードエージェント"アーキテクチャの最近の進歩に触発されたモジュラー生成フレームワーク、GenerationProgramsを導入しました。
出力と属性を同時に生成したり、ポストホック属性に依存する従来の生成方法とは異なり、GenerationProgramsはプロセスを2つの異なるステージに分解する。
実験的な評価により、生成プログラムは2つの長文問合せタスクと多文書要約タスクにおいて、文書レベルと文レベルの両方の属性品質を著しく向上することが示された。
さらに,ジェネレーションプログラムはポストホック帰属法として効果的に機能し,正確な帰属を回復する従来の手法よりも優れていることを示す。
さらに、GenerationProgramsによって生成された解釈可能なプログラムは、モジュールレベルの改善を通じて局所的な洗練を可能にし、全体的な属性品質をさらに向上させる。
関連論文リスト
- Reinforcing Multimodal Understanding and Generation with Dual Self-rewards [56.08202047680044]
大規模言語モデル(LLM)は、クロスモデル理解と生成を単一のフレームワークに統合する。
現在のソリューションでは、外部の監視(例えば、人間のフィードバックや報酬モデル)が必要であり、一方向のタスクにのみ対処する。
我々は,LMMの理解と生成能力を強化するために,自己監督型二重報酬機構を導入する。
論文 参考訳(メタデータ) (2025-06-09T17:38:45Z) - SuperWriter: Reflection-Driven Long-Form Generation with Large Language Models [34.723917246316205]
SuperWriter-Agentは、長文生成の品質と一貫性を高めるために設計されたフレームワークである。
この枠組みに基づき、7B SuperWriter-LMをトレーニングするための教師付き微調整データセットを構築した。
様々なベンチマークで実証された結果は、SuperWriter-LMが最先端のパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2025-06-04T17:27:42Z) - ComfyMind: Toward General-Purpose Generation via Tree-Based Planning and Reactive Feedback [15.363560226232668]
我々は、堅牢でスケーラブルな汎用生成を可能にするために設計されたコラボレーティブAIシステムであるComfyMindを紹介する。
ComfyMindでは,低レベルのノードグラフをコール可能な関数言語に抽象化するセマンティックインターフェース(SWI)と,検索ツリー計画機構という,2つのコアイノベーションを紹介している。
我々はComfyBench、GenEval、Reason-Editの3つの公開ベンチマークでComfyMindを評価した。
論文 参考訳(メタデータ) (2025-05-23T13:53:03Z) - CCA: Collaborative Competitive Agents for Image Editing [55.500493143796405]
本稿では,CCA(Collaborative Competitive Agents)の新たな生成モデルを提案する。
複数のLarge Language Models (LLM) ベースのエージェントを使って複雑なタスクを実行する。
この論文の主な貢献は、制御可能な中間ステップと反復最適化を備えたマルチエージェントベースの生成モデルの導入である。
論文 参考訳(メタデータ) (2024-01-23T11:46:28Z) - SpecGen: Automated Generation of Formal Program Specifications via Large Language Models [20.36964281778921]
SpecGenは、大規模言語モデルに基づく形式的なプログラム仕様生成のための新しいテクニックである。
SV-COMP 279ベンチマークと手動で構築したデータセットを含む2つのデータセット上でSpecGenを評価する。
論文 参考訳(メタデータ) (2024-01-16T20:13:50Z) - Self-Infilling Code Generation [60.12883980846781]
自動回帰デコードにインフィル操作を組み込んだ汎用フレームワークであるセルフインフィルコード生成を導入する。
我々は,従来の復号化において,新しい割り込みとループ機構を導入するために,この機能を利用する。
提案する復号処理は,複数のコード生成ベンチマークにおける正規性と品質の向上に有効である。
論文 参考訳(メタデータ) (2023-11-29T16:02:06Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。