論文の概要: SlidesGen-Bench: Evaluating Slides Generation via Computational and Quantitative Metrics
- arxiv url: http://arxiv.org/abs/2601.09487v1
- Date: Wed, 14 Jan 2026 13:50:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.416453
- Title: SlidesGen-Bench: Evaluating Slides Generation via Computational and Quantitative Metrics
- Title(参考訳): SlidesGen-Bench: 計算および定量的メトリクスによるスライド生成の評価
- Authors: Yunqiao Yang, Wenbo Li, Houxing Ren, Zimu Lu, Ke Wang, Zhiyuan Huang, Zhuofan Zong, Mingjie Zhan, Hongsheng Li,
- Abstract要約: SlidesGen-Benchは、3つのコア原理のレンズを通してスライド生成を評価するために設計されたベンチマークである。
まず、視覚領域で解析を行い、端末出力をレンダリングとして扱い、基礎となる生成法に非依存なままにする。
次に,3次元のスライド(コンテンツ,美学,編集可能性)を定量的に評価する計算手法を提案する。
- 参考スコア(独自算出の注目度): 49.092634600260965
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid evolution of Large Language Models (LLMs) has fostered diverse paradigms for automated slide generation, ranging from code-driven layouts to image-centric synthesis. However, evaluating these heterogeneous systems remains challenging, as existing protocols often struggle to provide comparable scores across architectures or rely on uncalibrated judgments. In this paper, we introduce SlidesGen-Bench, a benchmark designed to evaluate slide generation through a lens of three core principles: universality, quantification, and reliability. First, to establish a unified evaluation framework, we ground our analysis in the visual domain, treating terminal outputs as renderings to remain agnostic to the underlying generation method. Second, we propose a computational approach that quantitatively assesses slides across three distinct dimensions - Content, Aesthetics, and Editability - offering reproducible metrics where prior works relied on subjective or reference-dependent proxies. Finally, to ensure high correlation with human preference, we construct the Slides-Align1.5k dataset, a human preference aligned dataset covering slides from nine mainstream generation systems across seven scenarios. Our experiments demonstrate that SlidesGen-Bench achieves a higher degree of alignment with human judgment than existing evaluation pipelines. Our code and data are available at https://github.com/YunqiaoYang/SlidesGen-Bench.
- Abstract(参考訳): LLM(Large Language Models)の急速な進化は、コード駆動レイアウトから画像中心の合成に至るまで、自動スライド生成のための多様なパラダイムを育んでいる。
しかしながら、これらの異種システムを評価することは困難であり、既存のプロトコルはアーキテクチャ全体にわたって同等のスコアを提供するのに苦労したり、未定の判断に頼るのに苦労することが多い。
本稿では,3つの基本原理(普遍性,定量化,信頼性)のレンズを用いて,スライド生成を評価するためのベンチマークであるSlidesGen-Benchを紹介する。
まず、統合評価フレームワークを確立するために、端末出力をレンダリングとして扱い、基礎となる生成法に非依存な状態にしておく。
次に,3つの異なる次元 – 内容,美学,編集可能性 – のスライドを定量的に評価する計算手法を提案する。
最後に、人間の嗜好と高い相関性を確保するために、私たちはSlides-Align1.5kデータセットを構築した。
実験の結果,SlidesGen-Benchは既存の評価パイプラインよりも,人間の判断との整合性が高いことがわかった。
私たちのコードとデータはhttps://github.com/YunqiaoYang/SlidesGen-Bench.comで公開されています。
関連論文リスト
- Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - Breaking the Likelihood Trap: Consistent Generative Recommendation with Graph-structured Model [8.011282322871958]
推薦システムの最終段階として、リグレードはリアルタイムの推論、正確性、多様性を要求する。
本稿では,新しい生成的推薦フレームワークであるConsistent Graph-structured Generative Recommendation (Congrats)を提案する。
大規模なビデオ共有アプリKuaishouは、毎日3億人のアクティブユーザーを抱えている。
論文 参考訳(メタデータ) (2025-10-11T09:21:01Z) - Hi3DEval: Advancing 3D Generation Evaluation with Hierarchical Validity [78.7107376451476]
Hi3DEvalは3D生成コンテンツに適した階層的評価フレームワークである。
素材リアリズムを明示的に評価することで審美的外観を超えてテクスチャ評価を拡張する。
ハイブリッド3次元表現に基づく3次元自動スコアリングシステムを提案する。
論文 参考訳(メタデータ) (2025-08-07T17:50:13Z) - ArtifactsBench: Bridging the Visual-Interactive Gap in LLM Code Generation Evaluation [51.297873393639456]
ArtifactsBenchは自動ビジュアルコード生成評価のためのフレームワークである。
我々のフレームワークは、生成した各アーティファクトをレンダリングし、時間的スクリーンショットを通してその動的な振る舞いをキャプチャする。
我々は1,825の多様なタスクの新しいベンチマークを構築し、30以上の主要な大規模言語モデルを評価する。
論文 参考訳(メタデータ) (2025-07-07T12:53:00Z) - Cross-Modal Geometric Hierarchy Fusion: An Implicit-Submap Driven Framework for Resilient 3D Place Recognition [9.411542547451193]
本稿では,密度に依存しない幾何学的推論により3次元位置認識を再定義するフレームワークを提案する。
具体的には、元のシーンポイント雲密度の干渉に免疫する弾性点に基づく暗黙の3次元表現を導入する。
これら2種類の情報を活用することで,鳥眼視と3Dセグメントの両視点から幾何学的情報を融合する記述子を得る。
論文 参考訳(メタデータ) (2025-06-17T07:04:07Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。