論文の概要: DiffBench Meets DiffAgent: End-to-End LLM-Driven Diffusion Acceleration Code Generation
- arxiv url: http://arxiv.org/abs/2601.03178v1
- Date: Tue, 06 Jan 2026 16:55:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.031877
- Title: DiffBench Meets DiffAgent: End-to-End LLM-Driven Diffusion Acceleration Code Generation
- Title(参考訳): DiffBenchとDiffAgent: LLM駆動の拡散加速コード生成
- Authors: Jiajun jiao, Haowei Zhu, Puyuan Yang, Jianghui Wang, Ji Liu, Ziqiong Liu, Dong Li, Yuejian Fang, Junhai Yong, Bin Wang, Emad Barsoum,
- Abstract要約: 我々は,大規模言語モデル(LLM)によって駆動されるフレームワークを導入し,自動アクセラレーションコード生成と評価を行う。
まず,3段階の自動評価パイプラインを実装した総合ベンチマークであるDiffBenchを紹介する。
次に、任意の拡散モデルのための最適な加速度戦略と符号を生成するエージェントDiffAgentを提案する。
- 参考スコア(独自算出の注目度): 25.165655684862074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have achieved remarkable success in image and video generation. However, their inherently multiple step inference process imposes substantial computational overhead, hindering real-world deployment. Accelerating diffusion models is therefore essential, yet determining how to combine multiple model acceleration techniques remains a significant challenge. To address this issue, we introduce a framework driven by large language models (LLMs) for automated acceleration code generation and evaluation. First, we present DiffBench, a comprehensive benchmark that implements a three stage automated evaluation pipeline across diverse diffusion architectures, optimization combinations and deployment scenarios. Second, we propose DiffAgent, an agent that generates optimal acceleration strategies and codes for arbitrary diffusion models. DiffAgent employs a closed-loop workflow in which a planning component and a debugging component iteratively refine the output of a code generation component, while a genetic algorithm extracts performance feedback from the execution environment to guide subsequent code refinements. We provide a detailed explanation of the DiffBench construction and the design principles underlying DiffAgent. Extensive experiments show that DiffBench offers a thorough evaluation of generated codes and that DiffAgent significantly outperforms existing LLMs in producing effective diffusion acceleration strategies.
- Abstract(参考訳): 拡散モデルは画像生成やビデオ生成において顕著な成功を収めた。
しかし、その本質的に複数のステップ推論プロセスは、計算上のオーバーヘッドをかなり伴い、現実世界のデプロイメントを妨げます。
したがって、拡散モデルの加速は不可欠であるが、複数のモデルの加速技術を組み合わせる方法を決定することは重要な課題である。
この問題に対処するために,大規模言語モデル(LLM)によって駆動されるフレームワークを導入し,自動アクセラレーションコード生成と評価を行う。
まず、さまざまな分散アーキテクチャ、最適化の組み合わせ、デプロイメントシナリオにまたがる3段階の自動評価パイプラインを実装する包括的なベンチマークであるDiffBenchを紹介します。
次に、任意の拡散モデルのための最適な加速度戦略と符号を生成するエージェントDiffAgentを提案する。
DiffAgentは、計画コンポーネントとデバッグコンポーネントがコード生成コンポーネントの出力を反復的に洗練するクローズドループワークフローを使用し、遺伝的アルゴリズムは実行環境からパフォーマンスフィードバックを抽出し、その後のコード修正をガイドする。
DiffBench の構造と DiffAgent の根底にある設計原理について詳述する。
大規模な実験により、DiffBenchは生成した符号の徹底的な評価を提供し、DiffAgentは効果的な拡散加速戦略を生成するために既存のLLMよりも大幅に優れていることが示された。
関連論文リスト
- Blockwise Flow Matching: Improving Flow Matching Models For Efficient High-Quality Generation [33.177998521195114]
フローマッチングモデルは、幅広い領域にわたる高忠実性データ生成の境界を押し上げている。
生成軌道を複数の時間セグメントに分割する新しいフレームワークであるBlockwise Flow Matching (BFM)を提案する。
BFMは2.1倍から4.9倍の高速化を実現している。
論文 参考訳(メタデータ) (2025-10-24T05:41:23Z) - Saber: An Efficient Sampling with Adaptive Acceleration and Backtracking Enhanced Remasking for Diffusion Language Model [98.35868970993232]
拡散言語モデル(DLM)は、支配的な自己回帰パラダイムに代わる強力で有望な選択肢として現れています。
コード生成における推論速度と出力品質の向上を実現するために,適応加速度を用いた効率的なサンプリングとバックトラック強化リマッシング(セイバー)を導入する。
論文 参考訳(メタデータ) (2025-10-20T23:38:12Z) - Taming Masked Diffusion Language Models via Consistency Trajectory Reinforcement Learning with Fewer Decoding Step [28.12392773921128]
マスケッド拡散言語モデルは、並列復号化、フレキシブルな生成順序、推論ステップの少ないポテンシャルなどの特性を提供する。
直感的なアプローチは、自己回帰(AR)言語モデルのために確立された技術を直接MDLMに転送することである。
本稿では,EOS Early Rejection (EOSER) と Ascending Step-Size (ASS) デコードスケジューラを提案する。
論文 参考訳(メタデータ) (2025-09-28T15:01:15Z) - DiffuCoder: Understanding and Improving Masked Diffusion Models for Code Generation [68.19756761027351]
拡散大言語モデル(dLLM)は自己回帰(AR)モデルの魅力的な代替品である。
本研究は,それらの認知過程と強化学習手法について考察する。
我々の研究は、dLLM生成のメカニズムについて深い洞察を与え、効果的な拡散ネイティブなRLトレーニングフレームワークを提供します。
論文 参考訳(メタデータ) (2025-06-25T17:35:47Z) - Improving Progressive Generation with Decomposable Flow Matching [50.63174319509629]
Decomposable Flow Matching (DFM)は、ビジュアルメディアのプログレッシブな生成のためのシンプルで効果的なフレームワークである。
Imagenet-1k 512pxでは、DFMはベースアーキテクチャよりも35.2%改善され、ベースラインは26.4%向上した。
論文 参考訳(メタデータ) (2025-06-24T17:58:02Z) - DiffMoE: Dynamic Token Selection for Scalable Diffusion Transformers [86.5541501589166]
DiffMoEはバッチレベルのグローバルトークンプールで、トレーニング中に専門家がグローバルトークンの配布にアクセスできるようにする。
ImageNetベンチマークの拡散モデル間での最先端のパフォーマンスを実現する。
このアプローチの有効性は、クラス条件生成を超えて、テキスト・ツー・イメージ生成のようなより困難なタスクにも及んでいる。
論文 参考訳(メタデータ) (2025-03-18T17:57:07Z) - COrAL: Order-Agnostic Language Modeling for Efficient Iterative Refinement [80.18490952057125]
反復改良は、複雑なタスクにおける大規模言語モデル(LLM)の能力を高める効果的なパラダイムとして登場した。
我々はこれらの課題を克服するために、コンテキストワイズ順序非依存言語モデリング(COrAL)を提案する。
当社のアプローチでは、管理可能なコンテキストウィンドウ内で複数のトークン依存関係をモデル化しています。
論文 参考訳(メタデータ) (2024-10-12T23:56:19Z) - Optimizing Diffusion Models for Joint Trajectory Prediction and Controllable Generation [49.49868273653921]
拡散モデルは、自律運転における共同軌道予測と制御可能な生成を約束する。
最適ガウス拡散(OGD)と推定クリーンマニフォールド(ECM)誘導を導入する。
提案手法は生成過程の合理化を図り,計算オーバーヘッドを低減した実用的な応用を実現する。
論文 参考訳(メタデータ) (2024-08-01T17:59:59Z) - Diffusion Glancing Transformer for Parallel Sequence to Sequence
Learning [52.72369034247396]
モーダリティ拡散プロセスと残差グランシングサンプリングを併用した拡散グランシング変換器を提案する。
DIFFGLATは、自己回帰モデルと非自己回帰モデルの両方と比較して、高速な復号速度を維持しながら、より優れた生成精度を実現する。
論文 参考訳(メタデータ) (2022-12-20T13:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。