論文の概要: Jano: Adaptive Diffusion Generation with Early-stage Convergence Awareness
- arxiv url: http://arxiv.org/abs/2603.00519v1
- Date: Sat, 28 Feb 2026 07:35:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.239078
- Title: Jano: Adaptive Diffusion Generation with Early-stage Convergence Awareness
- Title(参考訳): Jano: 早期収束認識による適応拡散生成
- Authors: Yuyang Chen, Linqian Zeng, Yijin ZHou, Hengjie Li, Jidong Zhai,
- Abstract要約: DiT(Diffusion Transformer)は、集中的なフルアテンション計算を必要とする。
私たちは、この洞察を効率的な地域認識生成に活用する、トレーニング不要のフレームワークであるJanoを紹介します。
Janoは、生成品質を維持しながら、相当な加速(平均2.0倍のスピードアップ、2.4倍)を達成する。
- 参考スコア(独自算出の注目度): 7.596181361033662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have achieved remarkable success in generative AI, yet their computational efficiency remains a significant challenge, particularly for Diffusion Transformers (DiTs) requiring intensive full-attention computation. While existing acceleration approaches focus on content-agnostic uniform optimization strategies, we observe that different regions in generated content exhibit heterogeneous convergence patterns during the denoising process. We present Jano, a training-free framework that leverages this insight for efficient region-aware generation. Jano introduces an early-stage complexity recognition algorithm that accurately identifies regional convergence requirements within initial denoising steps, coupled with an adaptive token scheduling runtime that optimizes computational resource allocation. Through comprehensive evaluation on state-of-the-art models, Jano achieves substantial acceleration (average 2.0 times speedup, up to 2.4 times) while preserving generation quality. Our work challenges conventional uniform processing assumptions and provides a practical solution for accelerating large-scale content generation. The source code of our implementation is available at https://github.com/chen-yy20/Jano.
- Abstract(参考訳): 拡散モデルは、生成AIにおいて顕著に成功したが、その計算効率は依然として大きな課題であり、特に拡散変換器(DiT)は、集中的なフルアテンション計算を必要とする。
既存のアクセラレーションアプローチは、コンテンツに依存しない一様最適化戦略に重点を置いているが、生成したコンテンツの異なる領域が、デノナイジングプロセス中に不均一収束パターンを示すことが観察されている。
私たちは、この洞察を効率的な地域認識生成に活用する、トレーニング不要のフレームワークであるJanoを紹介します。
Janoは、初期段階の複雑性認識アルゴリズムを導入し、計算リソース割り当てを最適化する適応トークンスケジューリングランタイムと合わせて、初期段階のデノベーションステップ内の地域収束要求を正確に識別する。
最先端モデルに関する包括的な評価を通じて、Janoは生成品質を維持しながら、相当な加速(平均2.0倍のスピードアップ、最大2.4倍)を達成する。
我々の研究は、従来の一様処理仮定に挑戦し、大規模コンテンツ生成を加速するための実用的なソリューションを提供する。
私たちの実装のソースコードはhttps://github.com/chen-yy20/Jano.orgで公開されています。
関連論文リスト
- Adaptive Surrogate-Based Strategy for Accelerating Convergence Speed when Solving Expensive Unconstrained Multi-Objective Optimisation Problems [41.99844472131922]
本稿では,最先端MOEAの早期収束速度を高速化する適応的な代理モデル手法を提案する。
これは、解決者が比較的少ない適合関数評価で最適解や準最適解を識別できることを保証するためである。
提案手法は,広く知られている31のベンチマーク問題と実世界の北海魚量モデリングケーススタディで検証された。
論文 参考訳(メタデータ) (2026-01-29T15:46:52Z) - Beyond Confidence: Adaptive and Coherent Decoding for Diffusion Language Models [64.92045568376705]
コヒーレントコンテキストデコーディング(Coherent Contextual Decoding, CCD)は、2つのコアイノベーションに基づいて構築された新しい推論フレームワークである。
CCDは、歴史的文脈を活用してシーケンスコヒーレンスを高める軌道修正機構を採用している。
拡散ステップに基づく厳密なアロケーションの代わりに,各ステップのアンマスク予算を動的に調整する適応型サンプリング戦略を導入する。
論文 参考訳(メタデータ) (2025-11-26T09:49:48Z) - Equivariant Sampling for Improving Diffusion Model-based Image Restoration [25.06154860408637]
本稿では,2つのサンプリングトラジェクトリを通じて同変情報を付加するDMIR手法であるEquSを紹介する。
EquSをさらに強化するために、タイムステップ・アウェア・スケジュール(TAS)を提案し、EquS$+$を導入する。
本手法は従来の問題に依存しないDMIR法と互換性があり,計算コストを増大させることなく性能を大幅に向上させる。
論文 参考訳(メタデータ) (2025-11-13T04:56:53Z) - Noise Hypernetworks: Amortizing Test-Time Compute in Diffusion Models [57.49136894315871]
テストタイムスケーリングの新しいパラダイムは、推論モデルと生成視覚モデルにおいて驚くべきブレークスルーをもたらした。
本稿では,テスト時間スケーリングの知識をモデルに組み込むことの課題に対する1つの解決策を提案する。
拡散モデルにおいて、初期入力ノイズを変調するノイズハイパーネットワークにより、報酬誘導試験時間雑音の最適化を行う。
論文 参考訳(メタデータ) (2025-08-13T17:33:37Z) - One-Step Diffusion Model for Image Motion-Deblurring [85.76149042561507]
本稿では,脱臭過程を1段階に短縮する新しいフレームワークである脱臭拡散モデル(OSDD)を提案する。
拡散モデルにおける忠実度損失に対処するために,構造復元を改善する改良された変分オートエンコーダ(eVAE)を導入する。
提案手法は,実測値と非参照値の両方で高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T09:39:57Z) - Reward-Guided Iterative Refinement in Diffusion Models at Test-Time with Applications to Protein and DNA Design [87.58981407469977]
進化的アルゴリズムにインスパイアされた拡散モデルを用いた推論時間報酬最適化のための新しいフレームワークを提案する。
当社のアプローチでは,各イテレーションにおける2つのステップ – ノイズ発生と報酬誘導という,反復的な改善プロセスを採用しています。
論文 参考訳(メタデータ) (2025-02-20T17:48:45Z) - Adaptively Controllable Diffusion Model for Efficient Conditional Image Generation [8.857237929151795]
本稿では,新たな適応フレームワークである$textitAdaptively Controllable Diffusion (AC-Diff) Model$を提案する。
AC-Diffは、文学拡散モデルと同じ性能を維持しつつ、平均生成ステップ数と実行時間を大幅に削減することが期待されている。
論文 参考訳(メタデータ) (2024-11-19T21:26:30Z) - Optimizing Diffusion Models for Joint Trajectory Prediction and Controllable Generation [49.49868273653921]
拡散モデルは、自律運転における共同軌道予測と制御可能な生成を約束する。
最適ガウス拡散(OGD)と推定クリーンマニフォールド(ECM)誘導を導入する。
提案手法は生成過程の合理化を図り,計算オーバーヘッドを低減した実用的な応用を実現する。
論文 参考訳(メタデータ) (2024-08-01T17:59:59Z) - TMPQ-DM: Joint Timestep Reduction and Quantization Precision Selection for Efficient Diffusion Models [40.5153344875351]
我々はTMPQ-DMを導入し、タイムステップの削減と量子化を共同で最適化し、優れた性能・効率のトレードオフを実現する。
時間段階の削減のために、デノナイジング過程の非一様性に合わせた非一様グルーピングスキームを考案する。
量子化の観点では、最終的な生成性能に対するそれぞれの貢献に基づいて、異なる層に異なるビット幅を割り当てる、きめ細かいレイヤーワイズアプローチを採用する。
論文 参考訳(メタデータ) (2024-04-15T07:51:40Z) - AdaDiff: Accelerating Diffusion Models through Step-Wise Adaptive Computation [32.74923906921339]
拡散モデルは多彩で高忠実な画像を生成する上で大きな成功を収めるが、それらの応用は本質的に遅い生成速度によって妨げられる。
本稿では,拡散モデルの生成効率を向上させるために,各サンプリングステップで動的に計算資源を割り当てる適応フレームワークであるAdaDiffを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:10:04Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。