論文の概要: Learning to Present: Inverse Specification Rewards for Agentic Slide Generation
- arxiv url: http://arxiv.org/abs/2603.16839v1
- Date: Tue, 17 Mar 2026 17:45:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.458434
- Title: Learning to Present: Inverse Specification Rewards for Agentic Slide Generation
- Title(参考訳): 提示への学習:エージェント・スライド生成のための逆スペック・リワード
- Authors: Karthik Ragunath Ananda Kumar, Subrahmanyam Arunachalam,
- Abstract要約: 本研究は,LLMエージェントがトピックの研究,コンテントの計画,ツール使用によるHTMLスライドのプロフェッショナルなプレゼンテーション生成を学習する,OpenEnv互換の強化学習環境を提案する。
本稿では, 構造検証, レンダリング品質評価, LLMに基づく美的評価, コンテンツ品質指標, および, 意図した目的をいかに忠実に生成するかを計測する逆仕様報酬を組み合わせた多成分報酬システムを提案する。
6つのモデルにまたがる48種類のビジネスブリーフの実験では、細調整された7Bモデルはクロードオプス4.6の品質の91.2%を達成し、ベースモデルよりも33.1%改善した。
- 参考スコア(独自算出の注目度): 15.152850806890065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated presentation generation remains a challenging task requiring coherent content creation, visual design, and audience-aware communication. This work proposes an OpenEnv-compatible reinforcement learning environment where LLM agents learn to research topics, plan content, and generate professional HTML slide presentations through tool use. We introduce a multi-component reward system combining structural validation, render quality assessment, LLM-based aesthetic scoring, content quality metrics, and an inverse specification reward that measures how faithfully generated slides convey their intended purpose. The inverse specification reward, an "inverse task" where an LLM attempts to recover the original specification from generated slides, provides a holistic quality signal. Our approach fine-tunes Qwen2.5-Coder-7B via GRPO, training only 0.5% of parameters on prompts derived from expert demonstrations collected using Claude Opus 4.6. Experiments on 48 diverse business briefs across six models demonstrate that our fine-tuned 7B model achieves 91.2% of Claude Opus 4.6's quality while improving 33.1% over the base model. The six-model comparison reveals that instruction adherence and tool-use compliance, rather than raw parameter count, determine agentic task performance. We contribute SlideRL, an open-source dataset of 288 multi-turn rollout trajectories across all six models: https://huggingface.co/datasets/KarthikRagunathAnandaKumar/sliderl-multi-turn-rollouts Code: https://github.com/pushing-the-frontier/slide-forge-llm
- Abstract(参考訳): プレゼンテーションの自動生成は、コヒーレントなコンテンツ作成、ビジュアルデザイン、そしてオーディエンス対応のコミュニケーションを必要とする課題である。
本研究は,LLMエージェントがトピックの研究,コンテントの計画,ツール使用によるHTMLスライドのプロフェッショナルなプレゼンテーション生成を学習する,OpenEnv互換の強化学習環境を提案する。
本稿では, 構造検証, レンダリング品質評価, LLMに基づく美的評価, コンテンツ品質指標, および, 意図した目的をいかに忠実に生成するかを計測する逆仕様報酬を組み合わせた多成分報酬システムを提案する。
LLMが生成されたスライドから元の仕様を復元しようとする"逆タスク"である逆仕様報酬は、全体的な品質信号を提供する。
我々のアプローチは、GRPO経由でQwen2.5-Coder-7Bを微調整し、Clude Opus 4.6を用いて収集した専門家によるデモンストレーションから得られたプロンプトのパラメータのわずか0.5%をトレーニングする。
6つのモデルにまたがる48種類のビジネスブリーフの実験では、細調整された7Bモデルはクロードオプス4.6の品質の91.2%を達成し、ベースモデルよりも33.1%改善した。
6モデル比較の結果,命令の順守とツール使用のコンプライアンスが,生パラメータ数ではなくエージェントタスクのパフォーマンスを決定することが明らかとなった。
https://huggingface.co/datasets/KarthikRagunathAnandaKumar/sliderl-multi-turn-rollouts Code: https://github.com/pushing-the-frontier/slide-forge-llm。
関連論文リスト
- MergeSlide: Continual Model Merging and Task-to-Class Prompt-Aligned Inference for Lifelong Learning on Whole Slide Images [8.327738094483207]
Whole Slide Images (WSIs) の生涯学習は、がん関連のタスクで連続的に統一モデルを訓練または微調整することを目的としている。
本稿では,生涯学習をモデル統合問題として扱うフレームワークであるMergeSlideを紹介する。
論文 参考訳(メタデータ) (2025-11-17T07:51:18Z) - AutoPresent: Designing Structured Visuals from Scratch [99.766901203884]
エンド・ツー・エンドの画像生成とプログラム生成を様々なモデルでベンチマークする。
スライド生成用のコードと7kペアの命令でトレーニングされた8B LlamaベースのモデルであるAutoPresentを開発した。
論文 参考訳(メタデータ) (2025-01-01T18:09:32Z) - Pink: Unveiling the Power of Referential Comprehension for Multi-modal
LLMs [49.88461345825586]
本稿では,MLLMの微細な画像理解能力を高めるための新しい枠組みを提案する。
本稿では,既存のデータセットのアノテーションを活用して,命令チューニングデータセットを低コストで構築する手法を提案する。
本研究では,Qwen-VLよりも5.2%精度が向上し,Kosmos-2の精度が24.7%向上したことを示す。
論文 参考訳(メタデータ) (2023-10-01T05:53:15Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。