論文の概要: Squeezing Large-Scale Diffusion Models for Mobile
- arxiv url: http://arxiv.org/abs/2307.01193v1
- Date: Mon, 3 Jul 2023 17:54:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 12:01:50.576736
- Title: Squeezing Large-Scale Diffusion Models for Mobile
- Title(参考訳): モバイル用大規模拡散モデルの構築
- Authors: Jiwoong Choi, Minkyu Kim, Daehyun Ahn, Taesu Kim, Yulhwa Kim, Dongwon
Jo, Hyesung Jeon, Jae-Joon Kim, Hyungjun Kim
- Abstract要約: 我々は,iOS と Android デバイスを用いたモバイルデバイスに安定拡散をデプロイする上での課題と解決策を提示する。
その結果、モバイルディフュージョンは、モバイルを持つAndroidデバイスで512x512の画像生成のために7秒未満の推論レイテンシを実現する。
- 参考スコア(独自算出の注目度): 13.812821255482916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of diffusion models has greatly broadened the scope of
high-fidelity image synthesis, resulting in notable advancements in both
practical implementation and academic research. With the active adoption of the
model in various real-world applications, the need for on-device deployment has
grown considerably. However, deploying large diffusion models such as Stable
Diffusion with more than one billion parameters to mobile devices poses
distinctive challenges due to the limited computational and memory resources,
which may vary according to the device. In this paper, we present the
challenges and solutions for deploying Stable Diffusion on mobile devices with
TensorFlow Lite framework, which supports both iOS and Android devices. The
resulting Mobile Stable Diffusion achieves the inference latency of smaller
than 7 seconds for a 512x512 image generation on Android devices with mobile
GPUs.
- Abstract(参考訳): 拡散モデルの出現は高忠実度画像合成の範囲を大きく広げ、実用的な実装と学術研究の両方において顕著な進歩をもたらした。
さまざまな現実のアプリケーションでモデルがアクティブに採用されると、デバイス上でのデプロイの必要性は大幅に高まっている。
しかし、モバイルデバイスに10億以上のパラメータを持つ安定拡散のような大きな拡散モデルをデプロイすることは、計算資源やメモリリソースが限られているため、デバイスによって異なる可能性がある。
本稿では、iOSとAndroidデバイスの両方をサポートするTensorFlow Liteフレームワークを用いて、モバイルデバイスに安定拡散をデプロイするための課題と解決策を示す。
その結果,モバイルgpuを搭載したandroidデバイス上での512x512画像生成では,推定レイテンシが7秒未満になる。
関連論文リスト
- PalmBench: A Comprehensive Benchmark of Compressed Large Language Models on Mobile Platforms [11.87161637895978]
ユーザがモバイルデバイス上で大きな言語モデルを評価することができる軽量でオールインワンな自動ベンチマークフレームワークを紹介します。
ハードウェア能力の異なる複数のモバイルプラットフォームに対して、様々な量子化構成(重みとアクティベーションの両方)の異なる様々な人気のあるLCMのベンチマークを提供する。
論文 参考訳(メタデータ) (2024-10-05T03:37:07Z) - Flexiffusion: Segment-wise Neural Architecture Search for Flexible Denoising Schedule [50.260693393896716]
拡散モデル(diffusion model)は、多様な高品質な画像を生成するのに適した最先端の生成モデルである。
近年,より高速な生成プロセスの自動探索技術が採用されている。
拡散モデルの高速化を目的とした新しいトレーニングフリーNASパラダイムであるFlexiffusionを紹介する。
論文 参考訳(メタデータ) (2024-09-26T06:28:05Z) - LaMamba-Diff: Linear-Time High-Fidelity Diffusion Models Based on Local Attention and Mamba [54.85262314960038]
局所的意図的マンバブロックは、大域的コンテキストと局所的詳細の両方を線形複雑性でキャプチャする。
このモデルは, 256x256の解像度で, ImageNet上の様々なモデルスケールでDiTの性能を上回り, 優れたスケーラビリティを示す。
ImageNet 256x256 と 512x512 の最先端拡散モデルと比較すると,最大 62% GFLOP の削減など,我々の最大のモデルには顕著な利点がある。
論文 参考訳(メタデータ) (2024-08-05T16:39:39Z) - $\infty$-Brush: Controllable Large Image Synthesis with Diffusion Models in Infinite Dimensions [58.42011190989414]
無限次元における新しい条件拡散モデル、制御可能な大画像合成のための$infty$-Brushを導入する。
我々の知る限り、$infty$-Brushは関数空間における最初の条件拡散モデルであり、最大4096times4096$ピクセルの任意の解像度で画像を制御できる。
論文 参考訳(メタデータ) (2024-07-20T00:04:49Z) - Diffusion Models Without Attention [110.5623058129782]
Diffusion State Space Model (DiffuSSM) は、よりスケーラブルな状態空間モデルバックボーンで注目メカニズムを置き換えるアーキテクチャである。
拡散訓練におけるFLOP効率の高いアーキテクチャへの注力は、大きな前進となる。
論文 参考訳(メタデータ) (2023-11-30T05:15:35Z) - MobileDiffusion: Instant Text-to-Image Generation on Mobile Devices [13.923293508790122]
我々は,高効率なテキスト・画像拡散モデルである textbfMobileDiffusion を提案する。
蒸留法と拡散GAN微調整法をMobileDiffusionに応用し, それぞれ8ステップと1ステップの推論を行った。
MobileDiffusionは、モバイルデバイス上で512times512$の画像を生成するために、驚くべきTextbfsub秒の推論速度を達成する。
論文 参考訳(メタデータ) (2023-11-28T07:14:41Z) - SnapFusion: Text-to-Image Diffusion Model on Mobile Devices within Two
Seconds [88.06788636008051]
テキストから画像への拡散モデルは、プロのアーティストや写真家の作品に匹敵する自然言語の記述から素晴らしい画像を作り出すことができる。
これらのモデルは大規模で、複雑なネットワークアーキテクチャと数十のデノベーションイテレーションを持ち、計算コストが高く、実行が遅い。
モバイル端末上でテキストから画像への拡散モデルの実行を2ドル以下でアンロックする汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-01T17:59:25Z) - Speed Is All You Need: On-Device Acceleration of Large Diffusion Models
via GPU-Aware Optimizations [2.216657815393579]
本稿では,これまで報告された最も高速な推論遅延を実現する大規模拡散モデルの実装最適化について述べる。
これらの強化により、生成AIの適用範囲が拡大し、幅広いデバイスにわたるユーザエクスペリエンスが向上する。
論文 参考訳(メタデータ) (2023-04-21T22:40:29Z) - SDM: Spatial Diffusion Model for Large Hole Image Inpainting [106.90795513361498]
本稿では,空間拡散モデル(SDM)を提案する。
また,提案手法は非結合確率モデルと空間拡散スキームにより,高品質な大穴工法を実現する。
論文 参考訳(メタデータ) (2022-12-06T13:30:18Z) - DeepSpeed Inference: Enabling Efficient Inference of Transformer Models
at Unprecedented Scale [20.558091867632445]
DeepSpeed Inferenceは、トランスフォーマーモデル推論のための包括的なシステムソリューションである。
レイテンシ指向シナリオの最先端よりもレイテンシを最大7.3倍削減し、スループット指向シナリオのスループットを1.5倍向上する。
GPUのみのソリューションよりも25倍大きなモデルを推論でき、高いスループットは84 TFLOPS(A6000ピークの50ドル以上)を提供する。
論文 参考訳(メタデータ) (2022-06-30T18:01:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。