論文の概要: Enhancing Text-to-Image Generation via End-Edge Collaborative Hybrid Super-Resolution
- arxiv url: http://arxiv.org/abs/2601.14741v1
- Date: Wed, 21 Jan 2026 07:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.284459
- Title: Enhancing Text-to-Image Generation via End-Edge Collaborative Hybrid Super-Resolution
- Title(参考訳): エンドエッジ協調型スーパーリゾリューションによるテキスト・ツー・イメージ生成の強化
- Authors: Chongbin Yi, Yuxin Liang, Ziqi Zhou, Peng Yang,
- Abstract要約: エンドツーエンドの協調型世代拡大フレームワークを提案する。
実験の結果,本システムはベースラインに比べてサービス遅延を33%削減できることがわかった。
- 参考スコア(独自算出の注目度): 6.015475364527398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence-Generated Content (AIGC) has made significant strides, with high-resolution text-to-image (T2I) generation becoming increasingly critical for improving users' Quality of Experience (QoE). Although resource-constrained edge computing adequately supports fast low-resolution T2I generations, achieving high-resolution output still faces the challenge of ensuring image fidelity at the cost of latency. To address this, we first investigate the performance of super-resolution (SR) methods for image enhancement, confirming a fundamental trade-off that lightweight learning-based SR struggles to recover fine details, while diffusion-based SR achieves higher fidelity at a substantial computational cost. Motivated by these observations, we propose an end-edge collaborative generation-enhancement framework. Upon receiving a T2I generation task, the system first generates a low-resolution image based on adaptively selected denoising steps and super-resolution scales at the edge side, which is then partitioned into patches and processed by a region-aware hybrid SR policy. This policy applies a diffusion-based SR model to foreground patches for detail recovery and a lightweight learning-based SR model to background patches for efficient upscaling, ultimately stitching the enhanced ones into the high-resolution image. Experiments show that our system reduces service latency by 33% compared with baselines while maintaining competitive image quality.
- Abstract(参考訳): 人工知能生成コンテンツ(AIGC)は、ユーザのQuality of Experience(QoE)を改善するために、高解像度のテキスト・ツー・イメージ(T2I)生成がますます重要になっているため、大きな進歩を遂げている。
リソース制約されたエッジコンピューティングは高速な低解像度T2I世代を適切にサポートするが、高解像度の出力を実現することは、レイテンシーのコストで画像の忠実性を確保するという課題に直面している。
そこで我々は,まず,画像強調のための超解像(SR)法の性能について検討し,軽量学習ベースSRは細部を再現するのに苦慮し,拡散ベースSRは相当な計算コストで高い忠実性を達成するという基本的なトレードオフを確認した。
これらの観測を動機として,エンドエッジ協調型世代拡大フレームワークを提案する。
T2I生成タスクを受信すると、まず、エッジ側で適応的に選択された復調ステップと超解像スケールに基づいて低解像度画像を生成し、その後パッチに分割して、地域対応のハイブリッドSRポリシーで処理する。
このポリシーは、拡散ベースのSRモデルを用いて、詳細回復のためのパッチをフォアグラウンドに、学習ベースのSRモデルをバックグラウンドパッチに応用し、効率的なアップスケーリングを行い、拡張されたSRモデルを最終的に高解像度の画像に縫合する。
実験の結果,競争力のある画像品質を維持しながら,ベースラインに比べてサービスレイテンシを33%削減できることがわかった。
関連論文リスト
- Bridging Fidelity-Reality with Controllable One-Step Diffusion for Image Super-Resolution [59.71803719801537]
CODSRは、画像超解像のための制御可能なワンステップ拡散ネットワークである。
拡散過程に高忠実度条件を与えるLQ誘導型特徴変調モジュールを提案する。
そこで我々は,知覚の豊かさを効果的に向上させるために,領域適応型事前活性化法を開発した。
論文 参考訳(メタデータ) (2025-12-16T03:56:02Z) - Dual-domain Adaptation Networks for Realistic Image Super-resolution [81.34345637776408]
現実画像超解像(SR)は、現実世界の低解像度(LR)画像を高解像度(HR)画像に変換することに焦点を当てている。
現在の手法は、限られた現実世界のLR-HRデータと競合し、基本的な画像特徴の学習に影響を及ぼす。
我々は、シミュレーションされた画像SRモデルを実世界のデータセットに効率よく適応できる新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-11-21T12:57:23Z) - One-Step Diffusion-based Real-World Image Super-Resolution with Visual Perception Distillation [53.24542646616045]
画像超解像(SR)生成に特化して設計された新しい視覚知覚拡散蒸留フレームワークであるVPD-SRを提案する。
VPD-SRは2つのコンポーネントから構成される: 明示的セマンティック・アウェア・スーパービジョン(ESS)と高周波知覚(HFP)損失。
提案したVPD-SRは,従来の最先端手法と教師モデルの両方と比較して,たった1ステップのサンプリングで優れた性能が得られる。
論文 参考訳(メタデータ) (2025-06-03T08:28:13Z) - Exploring Linear Attention Alternative for Single Image Super-Resolution [28.267177967085143]
ディープラーニングベースのシングルイメージ超解像(SISR)技術は、低解像度(LR)画像を高解像度(HR)画像に拡張することに焦点を当てている。
本稿では,Receptance Weighted Key Value (RWKV) アーキテクチャと特徴抽出技術を組み合わせた新しい手法を提案する。
MambaIRモデルと比較すると,PSNRでは0.26%,SSIMでは0.16%の平均的な改善が得られた。
論文 参考訳(メタデータ) (2025-02-01T11:39:02Z) - Improving the Stability and Efficiency of Diffusion Models for Content Consistent Super-Resolution [18.71638301931374]
画像超解像 (SR) 結果の視覚的品質を高めるために, 予め訓練した潜伏拡散モデル (DM) の生成先行が大きな可能性を示唆している。
本稿では、生成SR過程を2段階に分割し、DMを画像構造再構築に、GANを細かな細部改善に使用することを提案する。
トレーニングを済ませると、提案手法、すなわちコンテンツ一貫性超解像(CCSR)は、推論段階における異なる拡散ステップの柔軟な利用を可能にする。
論文 参考訳(メタデータ) (2023-12-30T10:22:59Z) - Quality Assessment of Image Super-Resolution: Balancing Deterministic
and Statistical Fidelity [14.586878663223832]
決定論的忠実度(DF)と統計的忠実度(SF)の2次元(2次元)空間におけるSR画像品質評価(SR IQA)の問題点を考察する。
本稿では,この2つの忠実度尺度を,超解像忠実度指数(SRIF)と呼ばれる全体的な品質予測にマージする不確実性重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-07-15T02:09:17Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Uncovering the Over-smoothing Challenge in Image Super-Resolution: Entropy-based Quantification and Contrastive Optimization [67.99082021804145]
我々はDetail Enhanced Contrastive Loss (DECLoss)と呼ばれるCOO問題に対する明確な解決策を提案する。
DECLossはコントラスト学習のクラスタリング特性を利用して、潜在的な高分解能分布の分散を直接的に低減する。
我々は複数の超高解像度ベンチマーク上でDECLosを評価し,PSNR指向モデルの知覚品質を向上させることを実証した。
論文 参考訳(メタデータ) (2022-01-04T08:30:09Z) - Gated Fusion Network for Degraded Image Super Resolution [78.67168802945069]
本稿では,基本特徴と回復特徴を別々に抽出する二分岐畳み込みニューラルネットワークを提案する。
特徴抽出ステップを2つのタスク非依存ストリームに分解することで、デュアルブランチモデルがトレーニングプロセスを容易にすることができる。
論文 参考訳(メタデータ) (2020-03-02T13:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。